يُعتبر التعليم في السياق (In-Context Learning) مفهومًا ثوريًا في مجال الذكاء الاصطناعي، حيث يتكيف مع نماذج اللغة الكبيرة (Large Language Models) لتحقيق أداء متفوق في مهام جديدة من خلال عرض أمثلة في العروض التقديمية. ومع تطور هذا المجال، نشرت دراسة جديدة تحمل عنوان "Chain-of-Thought In-Context Learning" التي تسلط الضوء على كيفية استغلال تقنيات التعليم في السياق لتحسين النتائج في المهام التي تتطلب reasoning.
تتميز الدراسة بجوانب جديدة تبين أن القواعد التقليدية للتعليم من خلال الكثير من الأمثلة ليست فعّالة عند تطبيقها في مهام reasoning. وقد جاء ذلك بعد عدة تجارب تفصيلية شملت نماذج لغة مختلفة ومهام متنوعة.
من بين الاكتشافات الرئيسة التي توصل إليها الباحثون:
1. **تأثير الاعتماد على الإعداد**: زيادة عدد الأمثلة لا تعود بالفائدة على جميع نماذج اللغة، بل تساهم بشكل أكبر في تعزيز أداء النماذج الموجهة نحو reasoning.
2. **التشابه كأداة استرجاع**: بينما تفيد أدوات استرجاع المعرفة المستندة إلى التشابه في المهام غير المتعلقة بالreasoning، إلا أنها تظهر ضعفها في المهام المعقدة. لذا، فإن الاعتماد على التشابه الدلالي قد لا يكون كافيًا في هذه الحالة.
3. **تأثير ترتيب الأمثلة**: وجد الباحثون أن أداء النماذج يتأثر بالنظام الذي تواتي به الأمثلة، حيث كلما زاد عددها، ازدادت التقلبات في الأداء.
استنادًا إلى هذه النتائج، يوصي الباحثون بضرورة أن تكون الأمثلة المقدمة سهلة الفهم لكل نموذج مستهدف كما يجب تنظيمها لضمان تقدم مفهومي سلس.
وقدموا استخدام تقنية جديدة تسمى "اختيار العرض المنحني (Curvilinear Demonstration Selection)"، والتي ساهمت في تحسين الأداء بنسبة تصل إلى 5.42 نقطة مئوية في مهام الهندسة مع استخدام 64 مثالاً.
بوجه عام، تعيد هذه النتائج صياغة مفهوم استمرار استغلال نافذة السياق الطويلة، حيث تتحول من كونها مجرد وسيلة استرجاع إلى منهجية منسقة للتعلم في السياق أثناء الاختبارات.
ثورة في التعليم في السياق: استراتيجيات جديدة لتحسين الأداء لدى نماذج اللغة
تقدم الدراسات الجديدة في التعليم في السياق (ICL) رؤى مبتكرة حول كيفية تحسين نماذج اللغة الكبيرة (LLMs) لأدائها في المهام المعقدة. يكشف البحث عن أهمية تنظيم الأمثلة المستخدمة وكيفية فهم النماذج لتلك الأمثلة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
