تشير نتائج دراسة حديثة إلى أن نماذج اللغة الضخمة (Large Language Models) لا تفشل في تحقيق توازن ناش (Nash Equilibrium) فحسب، بل تستند إلى آليات داخلية تجعلها تنحرف عنه بشكل متكرر. في هذه الدراسة، تم تحليل أربعة نماذج مفتوحة المصدر (Llama-3 وQwen2.5، بمدى يتراوح بين 8 إلى 72 مليار معلمة) أثناء لعبها لأربع ألعاب استراتيجية مشهورة تضم لاعبين اثنين.
تم استخدام تجارب اللعب الذاتي (Self-Play) واللعب المتبادل (Cross-Play) لتأسيس صورة سلوك نموذجية. من خلال فتح نموذج Llama-3-8B المكون من 32 طبقة، تم فحص ما يحدث فعليًا أثناء اتخاذ القرارات الاستراتيجية. أظهرت النتائج أن تاريخ الخصم مشفر بدقة تقريبية في الطبقة الأولى (96% دقة الاستقصاء)، بينما كان ترميز الإجراءات الخاصة بتوازن ناش ضعيفًا طوال البيانات، حيث لم يتجاوز نسبة 56%.
لا يوجد نموذج مخصص لتوازن ناش، بل تظهر النتائج أن النموذج يميل سراً نحو اتخاذ إجراءات ناجحة خلال معظم مروره، لكن تدخلًا اجتماعيًا مركّزًا في الطبقات الأخيرة يغير هذا السلوك ليصل إلى 84% من احتمال التعاون. كما أظهرت تجارب السلوك وجود ست نتائج تعتمد على المقياس والهندسة المعمارية، حيث كانت الحالة الأكثر بروزًا هي أن التفكير المتسلسل يعوق سلوك توازن ناش في النماذج الصغيرة، بينما يحقق الأداء القريب من التوازن المثالي في النماذج الكبيرة التي تتجاوز 70 مليار معلمة.
تُظهر تجارب اللعب المتبادل ثلاثة ظواهر لم تكن مرئية في اللعب الذاتي، إذ يمكن لنموذج صغير أن يقوض تعاون أي شريك من خلال الانسحاب المبكر. كما تدعم نموذجين كبيرين مجددًا دوافع التعاون لبعضهما البعض بشكل غير متناهي. وأخيرًا، فإن من يتحرك أولاً في لعبة التنسيق يحدد أي توازن ناش سيصل إليه النظام. وبالتالي، فإن نماذج اللغة الضخمة لا تفتقر إلى كفاءات التفاعل وفق توازن ناش، بل تحسبها ثم تكبتها.
كشف أسرار الانحراف عن توازن ناش في نماذج اللغة الضخمة: دراسة تحليلة مذهلة!
هل تساءلت يومًا لماذا تنحرف نماذج اللغة الضخمة عن توازن ناش في تفاعلاتها الاستراتيجية؟ دراسة جديدة تكشف عن آليات داخلية مثيرة لتلك النماذج وكيف يمكن التحكم في سلوكها. انضم إلينا لاستكشاف هذه الأسرار.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
