في عصر يعتمد بشكل متزايد على الذكاء الاصطناعي، برزت الحاجة الملحة لاختيار البيانات بشكل أكثر كفاءة لنماذج اللغة الضخمة (Large Language Models). أظهرت الأبحاث الأخيرة أن جودة البيانات تفوق بكثير الكمية عندما يتعلق الأمر بتدريب هذه النماذج. لذلك، ظهرت دراسات عديدة تهدف إلى تطوير طرق متعددة الأبعاد لتقييم وتصنيف البيانات التعليمية.

ومع ذلك، تعاني الطرق الحالية من اعتمادها على مخططات وزن ثابتة لا تأخذ بعين الاعتبار احتياجات المهام المختلفة والقدرات المتفاوتة للنماذج. هنا، نقدم إطار عمل متقدماً لتعلم أوزان متعددة المؤشرات الذي يتكيف مع كل من المهمة المطلوبة والنموذج الخاص.

تعتمد طريقتنا على التعلم في السياق (In-Context Learning) لإيجاد التكوينات المثلى للأوزان دون الحاجة إلى إعادة تدريب كامل. يتم ذلك من خلال استغلال إشارات الأداء المشروطة التي تتحقق من خلال مجموعات تجريبية صغيرة، مما يوفر تقييم عالي الدقة بتكاليف حسابية منخفضة.

أظهرت التجارب التي أجريناها عبر مجموعة من المؤشرات والنماذج، مثل Mistral وQwen وLlama، أن هذه الطريقة تحقق أداءً يضاهي أو يتجاوز التعديل الكامل على جميع البيانات، باستخدام فقط 30% من عينات التدريب على مجموعة بيانات GSM8K. كما كشفت تحليلاتنا عن التوازن الضروري بين التنوع الدلالي وتعقيد المنطق في مهام التفكير، مما يبرز أهمية التكيف المشترك بين المهمة والنموذج.

نحن متحمسون لمشاركة هذه النتائج ونعتقد أنها تمثل خطوة هامة نحو تحسين الأداء في الذكاء الاصطناعي. ما رأيكم في هذا التطور؟ شاركونا في التعليقات!