تعتبر نماذج اللغة الكبيرة (Large Language Models) من أبرز الابتكارات في مجال الذكاء الاصطناعي، حيث تمثل خطوة كبيرة نحو تحقيق فهم أعمق للغة الطبيعية. ومع ذلك، تواجه هذه النماذج تحديًّا كبيرًا يتمثل في مسألة تُعرف باسم "التداخل بين المهام" (cross-task interference). يحدث هذا التداخل بسبب وجود معلمات مشتركة بين مهام متعددة، مما يؤدي إلى صراعات في التدرجات عند التدريب.

في الآونة الأخيرة، قدم الباحثون حلولًا مثل اختيار خلايا عصبية محددة لكل مهمة ومزيج من الخبراء (mixture-of-experts)، لكن تلك الحلول لم تعالج المشكلة بشكل كامل، حيث ظلت بعض المعلمات تتداخل رغم محاولات العزل. لذلك، في بحث جديد، قام العلماء بتقديم مفهوم مبتكر بعنوان "تفكيك القدرات الأساسية للتدريب المتعدد المهام" (Basic Abilities Decomposition for multi-task Instruct-Tuning أو BADIT).

تقوم هذه الطريقة الجديدة على فكرة أن هناك عوامل معينة تُنبه بشكل متكرر، مما يشير إلى وجود مجموعات أساسية من القدرات داخل نماذج اللغة الكبيرة. من خلال تحليل سلوك تلك العوامل، يُظهر البحث أن كل مهمة يمكن تمثيلها كنتيجة لمزيج من هذه القدرات الأساسية. بتطبيق BADIT، يتم تفكيك معلمات نموذج اللغة إلى خبراء يمثلون هذه القدرات، مما يساعد على تعزيز أدائها وتقليل التداخل بين المهام بشكل فعّال.

قد أجريت تجارب شاملة على معيار SuperNI باستخدام 6 نماذج لغة كبيرة، وأظهرت النتائج التجريبية تفوق BADIT على الطرق التقليدية في التعامل مع التداخل بين المهام. مما يعد فتحاً جديداً في مجال تعليم نماذج الذكاء الاصطناعي وكيف يمكن تحسين أدائها بشكل ملحوظ.

ما رأيكم في هذا التطور؟ شاركونا في التعليقات!