تسعى الأبحاث الحديثة إلى فهم كيفية تعامل نماذج اللغة الضخمة (LLMs) مع المهام المركبة، الأمر الذي يعد بمثابة تحدي كبير في مجال الذكاء الاصطناعي. في دراسة نشرت على موقع arXiv، يتم التحقيق في كيفية قدرة هذه النماذج على أداء مهام إعادة استرجاع المعلومات المعقدة، والتي يمكن التعبير عنها بتركيب رياضي بسيط على شكل $g(f(x))$.

تشير النتائج إلى أن هذه النماذج حتى الآن تعاني مما يسمى بـ "فجوة التركيب"، حيث إن قدرتها على حساب $z = f(x)$ و $y = g(z)$ لا تضمن قدرتها على حساب التركيب الكلي $y = g(f(x))$. وهو ما يثير تساؤلات حول كيفية تكوين هذه النماذج للدوال في بناءاتها.

بالتعمق أكثر، وجد الباحثون آليتين مختلفتين لمعالجة هذه المهام: الأولى هي الآلية التركيبية (compositional mechanism) التي تستلزم حساب $f(x)$ في الطريق إلى الوصول إلى $g(f(x))$، والثانية هي الآلية المباشرة (direct mechanism) التي تقوم بإتمام العمليات دون أثر واضح للمتغير الوسيط $f(x)$.

كما أظهرت التحقيقات أن هندسة الفضاء الخاص بالتضمين (embedding space geometry) تلعب دورًا كبيرًا في تحديد أي الآليتين يتم استخدامها. حيث تكون الآلية idiomatic (المستخدمة بشكل تقليدي) هي السائدة عندما تمثل المهام من خلال ترجمات من $x$ إلى $g(f(x))$ في فضاء التضمين.

هذه النتائج تثير الكثير من التساؤلات حول مستقبل الذكاء الاصطناعي وكيفية تعامل النماذج مع العمليات الأكثر تعقيدًا. ما هي برأيك التحديات المستقبلية أمام نماذج اللغة في تطبيق هذه الآليات بشكل أكثر كفاءة؟ شاركونا آراءكم في التعليقات.