في عالم الذكاء الاصطناعي، يكتسب تحسين التفاعل مع نماذج اللغة الكبيرة (Large Language Models) أهمية كبيرة، خاصةً مع استخدام نماذج مُجمدة تُعرف بـ 'الصناديق السوداء' (Black-box). هذه الظاهرة قامت بتحويل هندسة الطلبات (Prompt Engineering) من مجرد ممارسة عشوائية إلى تحدٍ حقيقي يتطلب تحسينات استراتيجية دقيقة.
في ضوء هذا التطور، تم اقتراح إطار عمل يعتمد على التعلم المعزز (Reinforcement Learning) لتدريب سياسات الطلبات المكتسبة من خلال تقطير التجربة (Experience Distillation) بشكل تدريجي. يهدف هذا الإطار إلى تعزيز نموذج صغير يقوم بتهيئة الطلبات لتحسين المكافآت الخاصة بالمهام التي تتعامل معها النماذج الأكبر.
باستخدام مخزن تجارب متباين يقوم بربط المكافآت الأساسية بانتقادات نصية مفصلة، يمكّن هذا الأسلوب من تحسين الطلبات تدريجياً إلى أوزان سياسات دقيقة.
تمت التجارب على مجموعة بيانات Big Bench Extra Hard (BBEH) وTau-bench، حيث قدمت الدراسة تغطية شاملة لمجموعة متنوعة من المهام المتعلقة بالتفكير المتعدد الخطوات واستخدام الأدوات. وقد أثبتت النتائج تحسنًا ملحوظًا في الأداء، حيث زادت نسبة النجاح في مهام التفكير المنطقي من 55% إلى 90%، وفي مهام استخدام الأدوات من 74% إلى 91%.
علاوة على ذلك، تم تحليل تطور هيكل الطلبات، مما أظهر كيف يمكن للسياسات اكتشاف خوارزميات متخصصة. وبالمقارنة مع جميع الأسس المعتمدة الحديثة مثل GEPA، تبين أن تقطير التجربة يتفوق من حيث الأداء وكفاءة العينات.
إن هذه التطورات تمثل خطوة كبيرة نحو تحسين كيفية استخدام نماذج اللغة الكبيرة في تطبيقات أكثر تعقيداً، مما يفتح الأفق أمام المزيد من الابتكارات في هذا المجال.
تحويل التحديات إلى إنجازات: تقنيات جديدة لتحسين التفاهم مع نماذج اللغة الكبيرة
تقدم الدراسة الجديدة إطار عمل مبتكر يُعزز من قدرة نماذج اللغة الكبيرة على التعامل مع المهام المعقدة من خلال تقنيات متطورة في مجال التعلم المعزز. النتائج تظهر تحسنًا ملحوظًا في الأداء، مما يُعد خطوة هامة نحو تحسين كيفية استغلال هذه النماذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
