في عالم الذكاء الاصطناعي، تواجه نماذج اللغة الكبيرة (LLMs) مشكلة تُعرف بتحدي "قطع المعرفة"، حيث تعيق ذاكرتها الثابتة قدرتها على استيعاب المعلومات الجديدة. وعادةً ما يتم استخدام أسلوب تحسين المعرفة المُراقَب (Supervised Fine-Tuning - SFT) لتحديث المعلومات في النماذج، لكنه غالبًا ما يحدث تغيير في المحتوى الحقائقي دون تحسين القدرة الفعلية للنموذج على استخدام المعلومات الجديدة في الإجابة عن الأسئلة أو اتخاذ القرارات.
في المقابل، يعد التعلم المعزز (Reinforcement Learning - RL) أمرًا أساسيًا لتطوير مهارات التفكير، ولكن التكلفة العالية للمعالجة تجعله غير عملي للتكيف الفوري. لقد لوحظ تجريبيًا أن التحديثات البراميترية الناتجة عن كل من SFT وRL تتسم بالاستقلالية تقريبًا. بناءً على هذه الملاحظة، تم اقتراح إطار عمل جديد يُدعى نقل المهارات البراميترية (Parametric Skill Transfer - PaST)، والذي يدعم نقل المهارات بشكل مرن وفعّال لتحديث المعرفة.
تقوم فكرة PaST على استخراج متجه مهارة غير مرتبط بمجال من مجال مصدر، مما يسهل حقن مهارات معالجة المعرفة في نموذج الهدف بعد أن يتم تحديثه بشكل خفيف باستخدام بيانات جديدة.
تظهر التجارب على نماذج الإجابة على الأسئلة (SQuAD، LooGLE) ومعايير استخدام الأدوات (ToolBench) فعالية هذه الطريقة، مما يحقق نتائج مثمرة. على سبيل المثال، تفوق PaST على النماذج الأكثر تقدمًا بنحو 9.9 نقاط على SQuAD، وحقق زيادة قدرها 8.0 نقاط في دقة الأسئلة ذات السياق الطويل على LooGLE، كما زادت معدلات النجاح في ToolBench بمتوسط 10.3 نقاط عبر تصنيفات الأدوات.
يعكس هذا النجاح قابلية التوسع والنقل المتبادل لمتجه المهارة، مما يعد بتقنيات تحسين أكثر كفاءة وإنتاجية في الذكاء الاصطناعي. في عصر المعلومات السريعة والتغيرات السريعة، يبدو أن التكيف المستمر والمعرفة الشاملة هما المفتاحان الرئيسيان لمواجهة التحديات المقبلة.
ماذا عنكم؟ هل تعتقدون أن التعلم الدائم والتكيف الفوري سيغيران مستقبل الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات.
هل يكفي المعرفة وحدها؟ اكتشاف مهارات التعلم المعزز للتكيف المستمر!
تمثل دراسة جديدة تحديات نماذج اللغة الكبيرة (LLMs) في دمج المعلومات الجديدة بأسلوب فعّال. من خلال استخدام إطار عمل نقل المهارات البراميترية (PaST)، يمكن تحسين قدرة النماذج على التكيف والتعلم من البيانات الجديدة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
