تسجل نماذج اللغة الكبيرة (Large Language Models) تقدماً كبيراً في مجالات عديدة، ولكن غالباً ما تواجه تحديات في تحسين أدائها عند معالجة استعلامات معقدة. في دراسة جديدة نُشرت عبر arXiv، تم طرح إطار عمل مبتكر يُدعى "تدريب ذاتي وقت الاختبار حسب الاستعلامات" (Query-Conditioned Test-Time Self-Training - QueST) والذي يعد بتغيير قواعد اللعبة في كيفية استجابة هذه النماذج للاستعلامات.
تمتاز معظم نماذج اللغة الكبيرة بتثبيت معلماتها أثناء الفحص، ولكن يمكن تعزيز أدائها عن طريق زيادة الموارد المحسوبة. وعلى الرغم من جدوى هذه الطريقة، إلا أنها لا تستطيع تصحيح سوء فهم النموذج أو التكيف مع هيكل استعلام معين. وتعد عملية تحسين الأداء في وقت الاختبار بمثابة حل لهذا التحدي، فعلى الرغم من أن الطرق التقليدية تعتمد غالباً على بيانات خارجية أو أهداف تعليم ذاتي عامة، فإنها تفتقر إلى التوافق المحدد مع الاستعلام.
مع دخول QueST، يتمكن الباحثون من تحديث معلمات النموذج أثناء الفحص باستخدام إشراف مستمد مباشرةً من الاستعلام المدخل. الفكرة الرئيسية تكمن في أن الاستعلام نفسه يحتوي على إشارات كامنة كافية لبناء أزواج مرتبطة بين المشكلة والحل. بناءً على ذلك، يخلق QueST أزواجاً من الاستعلامات المشروطة ويستخدمها كإشراف لتحسين معلمات النموذج بشكل فعال. ما يميز هذه الطريقة هو أنها لا تتطلب أي بيانات خارجية، مما يجعلها أكثر كفاءة ومرونة.
تم اختبار QueST عبر سبعة اختبارات رياضية ومعيار GPQA-Diamond للعلوم، وأظهرت النتائج تفوقه بشكل ملحوظ على طرق تحسين الأداء التقليدية. هذا يثبت أن التدريب الذاتي المشروط حسب الاستعلامات يشكل بديلاً فعالًا وعمليًا لتكيف النماذج في وقت الاختبار.
في ختام هذه الدراسة، يمكن القول إن QueST ليس فقط يوفر حلولاً عملية لتحسين أداء نماذج اللغة الكبيرة، ولكنه أيضًا يمهد الطريق لمستقبل أكثر ابتكاراً في الذكاء الاصطناعي. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
ابتكار ثوري: تدريب ذاتي وقت الاختبار لنماذج اللغة الكبيرة حسب الاستعلامات!
تقدم دراسة جديدة طريقة مبتكرة لتفعيل نماذج اللغة الكبيرة عبر تعديل المعلمات في وقت الاختبار بناءً على استعلامات محددة. هذه التقنية تعزز الأداء وتفتح آفاقاً جديدة في الذكاء الاصطناعي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
