في عالم الذكاء الاصطناعي، تعتبر نماذج اللغات الضخمة (Large Language Models) من أبرز التطورات التي شهدها المجال، حيث تسهم في تقديم حلول ذكائية متقدمة. ومع ذلك، لطالما كان دمج هذه النماذج معقدًا بسبب عدم وجود قوانين كميّة واضحة تساعد في التنبؤ بالعوائد عند إضافة المزيد من الخبراء أو زيادة حجم النموذج.

الدراسة الحديثة التي تم نشرها على منصة arXiv تتناول هذا التحدي من خلال تحديد قانون قوي ومبسّط يربط بين حجم النموذج وعدد الخبراء. يُظهر البحث أن العوائد الناتجة عن دمج النماذج تتناقص بوضوح مع زيادة عدد الخبراء، وهو ما يزيد من أهمية فهم هذه العلاقة بشكل عميق.

تمكن الباحثون من تطوير نظرية بسيطة تفسر سبب تراجع العوائد كدالة لـ 1/k، مما يتيح تقدير عدد الخبراء المطلوب للوصول إلى مستوى خسارة مستهدف. يُعتبر هذا التحول في التفكير في دمج النماذج خطوة نوعية باتجاه تقديم استراتيجيات أكثر كفاءة تخدم التطور نحو نظم الذكاء العام (AGI).

يتحقق هذا من خلال الاستفادة المتوقعة من تنويع الخبراء، حيث ترتبط العوائد بتحسينات ملحوظة في الأداء عند تنويع النماذج المستخدمة. هذا يشير إلى إمكانيات جديدة لاستغلال الذكاء الاصطناعي في تحقيق نتائج أفضل، مقدمة محطة مفصلية جديدة في مسار الأبحاث.

في الوقت الراهن، يمكن للباحثين والمطورين التخطيط بشكل أفضل حول عدد الخبراء الذين يحتاجون إليهم وكيفية التقليل من التكاليف المرتبطة بإضافة العديد من النماذج، مُشيرين إلى تحول دمج النماذج من ممارسة عشوائية إلى استراتيجية مدروسة بشكل أفضل.