في عالم نماذج اللغة الضخمة (Large Language Models)، يتساءل الكثيرون عما إذا كان هناك "سر خفي" يتمتع به مطورو هذه النماذج الرائدة. دراسة جديدة نشرت على موقع arXiv، تحلل بيانات تدريب وقياس لـ 809 نموذجًا تم إصدارها بين عامي 2022 و2025، لتفحص العلاقة بين كفاءة المطورين وحجم الموارد المستخدمة في التدريب.

نتائج الدراسة تشير بوضوح إلى وجود مزايا كفاءة خاصة بكل مطور، ولكن الأهمية تتغير اعتمادًا على موقع النماذج في توزيع الأداء. فعند الخطوط الأمامية، يتم تفسير 80-90% من الفروق في الأداء بفضل زيادة الموارد المستخدمة في التدريب، مما يعني أن الحجم هو الدافع الرئيسي للتقدم في هذا المجال بدلاً من التقنيات الخاصة.

وعندما نبتعد عن الخطوط الأمامية، تلعب التقنيات الخاصة والتقدم المشترك في الخوارزميات دورًا كبيرًا في تقليل الموارد المطلوبة للوصول إلى عتبات معينة من الأداء. هناك شركات قادرة على إنتاج نماذج أصغر بشكل أكثر كفاءة، مما يعكس التباين الكبير في كفاءة النماذج داخل نفس الشركة، حيث يمكن أن يحقق نموذجان فوارق في كفاءة تصل لأكثر من 40 مرة.

نقاش الدراسة لا يتوقف هنا، بل يتطرق أيضًا إلى الآثار المترتبة على قيادة الذكاء الاصطناعي وانتشار القدرات في هذا المجال المتسارع. في ظل هذه التطورات، يبقى السؤال المطروح: هل تقنية خاصة تعني التفوق، أم أن الحجم هو المفتاح؟