في عالم القيادة الذاتية، تُمثل التحديات الأمنية والتقييمات الفعالة أحد أعظم المفاتيح لتحقيق الأمان التام. لعقود، كانت تُجرى معظم التقييمات للسياسات المستقلة تحت ظروف معادية في بيئات افتراضية، الأمر الذي يعتبر فعالاً من حيث التكلفة ويقضي على المخاطر الجسدية. لكن هل فعلاً يُمكننا الاعتماد فقط على المحاكاة؟ يبدو أن الإجابة هي "لا"، إذ تُظهر الأبحاث الجديدة أن الاختبار الافتراضي بمفرده لا يُمكنه استيعاب التناقضات الهيكلية والقيود الإشرافية وتأثيرات تمثيل الحالة التي تنشأ في البيانات الفعلية، والتي تُشكل بشكل جذري متانة السياسات.

يقدم البحث الجديد، الذي تم نشره على موقع arXiv، إطاراً لتقييم متانة الأداء تحت ظروف معادية، مستندًا إلى بيانات حقيقية تتعلق بالقيادة في تقاطعات الطرق. ضمن عقد بيانات محكم، تم تدريب ومقارنة ثلاثة نماذج للتعلم من المسارات: 1) نماذج Perceptron متعددة الطبقات (Multi-Layer Perceptron) عبر تقنية سلوك الاستنساخ (Behavior Cloning)، 2) نماذج تستند إلى المحولات (Transformers) مع استنساخ الكائنات، و3) التعلم المعزز العكسي (Inverse Reinforcement Learning) في إطار عمل يُعرف باسم التعلم بالتمثيل التنافسي (Generative Adversarial Imitation Learning - GAIL).

تم تقييم النماذج باستخدام أخطاء الإزاحة المتوسطة (Average Displacement Error - ADE) وأخطاء الإزاحة النهائية (Final Displacement Error - FDE). بالإضافة إلى ذلك، تم تقييم المتانة في وقت الاستدلال من خلال تعريض السياسات المدربة إلى تشويشات معادية مبنية على التدرجات عبر سيناريوهات متعددة، مما أتاح لنا إنشاء مصفوفة تقييم متانة منظمة.

تشير النتائج إلى أن تصميم الهيكلية ونقاط التحيز المعماري تؤثر بشكل حاسم على الاستقرار في مواجهة الهجمات المعادية، مما يؤدي إلى ملفات متانة تختلف بشكل ملحوظ على الرغم من دقة التنبؤ المقارنة (ADE < 0.08). كما أظهرت الهجمات القائمة على تدرج النماذج (Projected Gradient Descent - PGD) درجات من أخطاء الإزاحة النهائية تصل إلى حوالي 8 أمتار.

يعتمد هذا الإطار المقترح كمعيار قابل للتوسع لدراسة التعلم من المسارات بأسلوب غير متصل (offline) والمتانة ضد الهجمات المعادية في بيئات القيادة الذاتية الواقعية. فهل لدينا الرؤية الكافية لتطبيق هذا الإطار في مستقبل القيادة الذاتية؟ كيف تعتقد أن هذه الابتكارات ستؤثر على أمان مركباتنا في الشوارع؟