في عالم الذكاء الاصطناعي، يعتمد نجاح النماذج اللغوية مثل Chain-of-Thought (CoT) على قدرتها في فهم وتوليد التفكير المنطقي. أحدث الأبحاث أظهرت شيئاً مثيراً: النماذج لا تفصح عن الأخطاء فقط، بل تدركها وتنمي مجموعة من الشكوك حول صحة استنتاجاتها دون أن تستطيع التصحيح.

أظهرت دراسة رائدة أن النماذج اللغوية، بغض النظر عن حجمها أو طريقة تدريبها، لديها آلية داخلية تتيح لها تقييم صحة تفكيرها، بمعدل دقة يصل إلى 0.95 AUROC خلال الخطوات الأولى من التفكير. لكنها تعبر عن ثقة مفرطة في استنتاجاتها الخاطئة، حيث تسجل 4.55/5 للأخطاء مقارنةً بـ 4.87/5 للصحيحة. وهذا يدل على أن هناك فجوة ملحوظة بين ما تدركه النماذج من خطأ وما تُظهره في نتائجها النهائية.

عند الاختبار، لم تنجح محاولات التصحيح الأربعة المختلفة، بدءاً من توجيه التنشيط، إلى استخدام بروب للتوجيه، إلى التصحيح الذاتي، وصولاً إلى التصحيح بالتفعيل. كل هذه الوسائل أثبتت عدم فعاليتها في إصلاح الأخطاء، فأداء النماذج ظل على حاله.

هذا التطور يقدم لنا نظرة جديدة حول حدود فهمنا لآليات الذكاء الاصطناعي، حيث أن الأخطاء المنطقية تمثّل واقعًا مختلفًا تمامًا عن المعرفة الفعلية، مما يعكس تحديات جديدة في تطوير تقنيات الذكاء الاصطناعي.