تعد مهام الإجابة عن الأسئلة متعددة الخطوات (Multi-Hop Question Answering - MHQA) من أكثر التحديات تعقيدًا في التعامل مع نماذج اللغات الضخمة (Large Language Models - LLMs)، إذ يتطلب هذا النوع من المهام دمج الأدلة المبعثرة والمتداخلة من خلال عمليات تفكير متسلسلة تحت تأثير ضوضاء خارجية. تكمن الصعوبة في أن نماذج اللغة تحتوي على قدرة محدودة في إخراج البيانات في كل مرور، مما يجعل تكامل الأدلة المخصصة للمهمة غير موثوق به عندما تتجاوز التعقيدات حدود هذه القدرة.
لإجراء تحليل شامل حول هذه المشكلة، تم وضع حدود الدقة بشكل مستوحى من نموذج فانو، حيث تم تعريف سقف أداء نظري لهذه النماذج خلال عملية التفكير المتسلسل. يكشف هذا السقف عن انهيار دقة النماذج عندما تتجاوز تعقيدات المهام قدرة النموذج، مما يوفر مبادئ عامة لرسم تمثيل وهيكلة MHQA مع مراعاة القدرة الاستيعابية للنماذج.
بناءً على هذه المبادئ، تم تقديم إطار عمل مبتكر يحمل اسم "InfoQA"، والذي يضمن دقة عالية في كل خطوة من خلال دمج تقسيم المهام المعتمد على القدرة الاستيعابية وعمليات تحسين نشطة لمخلفات التفكير السابق، مما يحافظ على تحميل المعلومات ضمن الحد المسموح به للمرور الواحد. إضافةً إلى ذلك، يحقق الإطار مزيدًا من القوة من خلال تدفق عمل يوضح الاعتماد، مما يمكّن من التحكم الدقيق في مسار التفكير.
لتأكيد صحة النظريات والنموذج المطور، تم إنشاء مجموعة بيانات صارمة وغنية بالضوضاء. أظهرت النتائج التجريبية توافق سلوك النموذج مع المنحنيات المتوقعة للقدرة، بينما حقق "InfoQA" تحسينات أداء متسقة، مما يدعم آمالنا في إلهام المزيد من الأساليب في التفكير المتعدد الخطوات لنماذج اللغة الكبيرة.
اكتشاف حدود الدقة في التفكير المتسلسل لنماذج اللغة: هل تستطيع تجاوز العقبات؟
تتناول هذه المقالة حدود الدقة في نماذج اللغات الضخمة خلال مهام الإجابة عن الأسئلة متعددة الخطوات. بواسطة إطار عمل جديد، يتم تحسين دقة الأداء وكفاءة التفكير بطرق مبتكرة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
