في ظل التطور السريع في مجالات القيادة الذاتية (Autonomous Driving) نحو نماذج شاملة تعتمد على إطار عمل مباشر (End-to-End) ، يتجه العلماء والباحثون نحو دراسة طرق جديدة لمواجهة التهديدات المحتملة. يأتي ذلك في ضوء الاعتماد المتزايد على بنى Transformer المعقدة، التي قد تجعل هذه الأنظمة عرضة لهجمات خارجية.

تتعدد paradigms الخاصة بأنظمة القيادة الذاتية، حيث يبرز كلا النموذجين: نموذج الـ Vision-Language-Action (VLA) والهندسة المعمارية التخصصية. وعلى الرغم من أن تصميماتهما مختلفة، إلا أن كليهما يشترك في الاعتماد الكبير على Transformers، ما ينجم عنه نقاط ضعف مشتركة.

ومن هنا، قدم الباحثون إطار تدفق الهجمات المعاكس (Adversarial Flow Matching - AFM) كطريقة جديدة للهجوم gray-box تستغل نقاط الضعف الهيكلية في نماذج القيادة الذاتية. تسمح هذه الطريقة بتوليد أمثلة هجومية فعالة وبشكل غير مرئي، من خلال التداخل الفعّال بين مساحة التوليد العميقة (Generative Latent Space) ومجال السرعة المتوسطة العصبية (Neural Average Velocity Field).

أظهرت التجارب الشاملة أن AFM يحسن التوازن بين فعالية الهجمات وغير الملاحظة، حيث يسبب تدهورًا كبيرًا في أداء وكلاء القيادة الذاتية (AD Agents) عبر مجموعة متنوعة من السيناريوهات، مما يمثل تهديدًا حقيقيًا للأمان السيبراني في النقل الذكي.

تعتبر هذه النتائج مثيرة جدًا، حيث إن الأمثلة الهجومية التي تم توليدها باستخدام AFM تتمتع بقابلية انتقال قوية عبر نماذج متعددة، مما يشير إلى أن AFM يقترب من وضع الهجوم الأسود (Black-Box Attack) بينما يتطلب فقط المعرفة المسبقة بأن النموذج المستهدف يتضمن وحدة تعتمد على Transformer.

هل تشعر أن هذه التطورات ستغير مستقبل الأمان في أنظمة القيادة الذاتية؟ شاركونا آرائكم في التعليقات!