في عالمنا المتسارع نحو الذكاء الاصطناعي، أصبحت الوكلاء المستقلون (Autonomous Agents) أكثر تعقيدًا مما كانت عليه في السابق، مما يحتم علينا مواجهة تحديات جديدة في التحقق من سلوكياتهم المتسلسلة. وقد قدم باحثون حديثًا خوارزمية مبتكرة تعلّم السلوك الصحيح من 2 إلى 10 أمثلة تنفذية ناجحة فقط، مع القدرة على التحقق من تنفيذات جديدة عن طريق النموذج المتعلم.
تجمع هذه الاستراتيجية بين تحليل المحددات من نظرية المترجمين (Compiler Theory) وفهم دلالي مدعوم بواسطة نماذج لغوية ضخمة (Large Language Models) متعددة الوسائط، مما يساعد على تحديد الحالات الأساسية والتعامل مع السلوك غير المحدد. وبتطبيق نموذج مبني على شجرة البادئة (Prefix Tree Acceptors)، يتم دمج المسارات من خلال كشف المعادلات متعددة المستويات، والتحقق من التنفيذات الجديدة عن طريق مطابقة تسلسلات طوبولوجية.
أثبتت تجارب مضبوطة أن النظام الجديد حقق دقة عالية في كشف الأخطاء داخل المنتجات والتجارب الوهمية باستخدام 3 مسارات تدريب فقط. وتوفر هذه الطريقة نتائج تحقق قابلة للتفسير مع مقاييس التغطية، وتعمل في نطاقات متنوعة تشمل اختبار واجهات المستخدم (UI Testing) وتوليد الكود (Code Generation) والعمليات الروبوتية (Robotic Processes). يعد هذا البحث إضافة قيمة لمجال الذكاء الاصطناعي، حيث يقدم أداة فعالة جديدة للتحقق من السلوكيات المعقدة للوكلاء المستقلين.
ما رأيكم في هذه التطورات الثورية في عالم الذكاء الاصطناعي؟ شاركونا في التعليقات!
ثورة في سلوكيات الوكلاء المستقلين: تعلم التصرف الصحيح من الأمثلة!
يقدم البحث الجديد تقنية مبتكرة لتعليم الوكلاء المستقلين السلوكيات الصحيحة باستخدام عدد قليل من الأمثلة. نتائج التجارب تظهر دقة عالية في اكتشاف الأخطاء ونجاح التنفيذ.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
