في عالم الذكاء الاصطناعي، تدور النقاشات حول نماذج اللغات الضخمة (Large Language Models) ولإمكاناتها الفريدة في تعزيز القدرات البشرية. إحدى النقاط المحورية التي تم اكتشافها مؤخرًا هي كيفية تعامل هذه النماذج مع التفكير المنطقي والتعقيد المرتبط بالتعليمات المتضاربة.

تسلط دراسة جديدة الضوء على المشكلة الأساسية التي تواجه نماذج اللغات في ضبط قدراتها على التفكير. يسعى الباحثون لفهم ما إذا كانت أنماط التفكير الأساسية مثل الاستدلال والاستنتاج يمكن فصلها عن حالات معينة. ومن خلال تحليل تناقضات التفكير، اكتشف الفريق أنه عندما تُفرض أنماط منطقية لا تتماشى مع المهمة المستهدفة، يُظهر أداء نماذج اللغات شغفًا بالغ الحساسية على حساب الالتزام.

تظهر النتائج أن النماذج تُفضل الأنماط المنطقية التي تتناسب مع طبيعة المهمة حتى عندما تتعارض مع التعليمات الموجهة. ورغم ذلك، فإن دقة النماذج لا تعتمد بالكامل على الحس، حيث تحتفظ هذه النماذج بأداء عالٍ حتى في حالات التعارض، مما يشير إلى أن الذاكرة المعيارية الداخلية تُعزز مع زيادة حجم النموذج.

بالإضافة إلى ذلك، توضح التجارب أنه يمكن اكتشاف تضارب التفكير داخليًا، حين تنخفض معدلات الثقة بشكل ملحوظ خلال هذه الحلقات المتضاربة. تشير التجارب الاستقصائية إلى أن أنواع التفكير تُشفر بشكل خطي من الطبقات المتوسطة إلى المتأخرة، مما يفتح المجال أمام إمكانية ضبط مستوى النشاط.

استنادًا إلى هذه الرؤى، تمكن الباحثون من توجيه النماذج نحو الالتزام، مما سمح بزيادة في تتبع التعليمات بنسبة تصل إلى 29%. في المجمل، تؤسس نتائج هذه الدراسة لفهم أعمق وجديد لكيفية ارتباط التفكير بالمعطيات، كما تبرز ضرورة التدخلات الآلية الفعالة التي يمكن أن تفصل بين الأنماط المنطقية والبيانات، مما يهيئ الطريق نحو ضبط أفضل وموثوقية أعلى.