تعد نماذج الرؤية واللغة والفعل (Vision-Language-Action Models) من أبرز الابتكارات في مجال القيادة الذاتية، ولكنها تواجه تحديات تتعلق بانخفاض مستوى الاستشعار عند تحرير المشفر البصري، بالإضافة إلى عدم استقرار التخطيط على المدى الطويل. لحل هذه المشكلات، تم تقديم نموذج EvoDriveVLA، وهو إطار عمل مبتكر يستند إلى تصفية التعاون بين الإدراك والتخطيط.
يعتمد EvoDriveVLA على مجموعة من التقنيات، بدءًا من القيود الإدراكية القائمة على الذات (Self-Anchored Perceptual Constraints) إلى تحسين المسارات المستندة إلى المعلومات المستقبلية (Future-Informed Trajectory Optimization). حيث يسهم المعلم الذاتي في تقديم قيود التثبيت البصري، مما يساهم في تحسين تمثيلات الطالب من خلال الوعي بالمناطق الأساسية الموجهة بالمخطط.
بالإضافة إلى ذلك، تُستخدم تقنيات مثل تصفية المسار المستندة إلى المعلومات المستقبلية، حيث يساعد معلم ذو وعي بالمستقبل في تحسين المسارات من خشن إلى دقيق، مما يسهل على النموذج الداخلي للطالب استيعاب رؤى المعلم المتعلقة بالمستقبل.
أظهرت تجربة EvoDriveVLA تحقيق أداء أعلى من جميع سابقاتها في تقييم nuScenes المفتوح، كما حققت تحسينًا كبيرًا في التقييم المغلق NAVSIM. ويعكس هذا الابتكار التطور الرائع في الأداء، مما يعد بمجموعة جديدة من الإمكانيات في القيادة الذاتية.
يمكنكم الاطلاع على كود النموذج من خلال الرابط المرفق: [GitHub - EvoDriveVLA](https://github.com/hey-cjj/EvoDriveVLA). هل أنتم مستعدون لاستكشاف مستقبل القيادة الذاتية؟ شاركونا آراءكم في التعليقات.
ثورة في القيادة الذاتية: اكتشفوا نموذج EvoDriveVLA الثوري!
يقدم نموذج EvoDriveVLA إطار تكنولوجيا مبتكر يعزز القيادة الذاتية عبر دمج الرؤية واللغة والتخطيط. هذا الاختراق يعد بتحسين كبير في الأداء في بيئات القيادة المختلفة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
