في رحلة مثيرة نحو فهم الذات (self-modeling) والآخرين (other-modeling)، طرحت دراسة جديدة تساؤلات مهمة حول قدرات نماذج اللغات الضخمة (LLMs) في التفاعل مع المفاهيم المعقدة لعقل الإنسان. لطالما كان مفهوم "نظرية العقل" (Theory of Mind) هو الأداة الأساسية التي تمكن البشر من التفاعل بفاعلية مع بعضهم البعض، إذ تسهل عليهم فهم دوافع الآخرين وأفكارهم.
في التجربة، تم تصميم نموذج جديد يتطلب من المشاركين - سواء كانوا نماذج لغات أو بشرًا - تكوين تصور عن الحالة الذهنية لأنفسهم وللآخرين والتصرف بناءً على ذلك، وليس مجرد الوصف. تم اختبار مجموعة من النماذج المتطورة، حيث أظهرت النتائج التي توصلنا إليها:
1. النماذج التي أُصدِرت قبل منتصف عام 2025 لم تتمكن من إجتياز المهام بشكل ناجح، مما يضع حائطًا أمام تطورها في هذا المجال.
2. النماذج الأحدث حققت أداءً يعادل الأداء البشري في فهم الحالات الإدراكية للآخرين، مما يُظهر تحسينًا ملحوظًا في تقنيات التعلم.
3. ومع ذلك، حتى النماذج الأكثر تقدمًا واجهت صعوبة في مهام فهم الذات، ما لم يتم تزويدها بوسيلة مساعدة مثل "ورقة ملاحظات" تستخدم لتحقيق عمليات تفكير أكثر تعقيدًا.
أظهر البحث أيضًا أن هناك تأثيرات جديدة للتحميل المعرفي (cognitive load) في التفاعل مع مهام الآخر، مما يشير إلى استخدام النماذج لآليات مشابهة لذاكرة العمل المحدودة (limited-capacity working memory) للاحتفاظ بهذه التصورات الذهنية أثناء الأداء.
أخيرًا، تم استكشاف الآليات التي تمكن نماذج التفكير من النجاح في مهام فهم الذات والآخر، ووجدنا أنها قادرة على استخدام الخداع الاستراتيجي بفعالية. هذه الاكتشافات تفتح آفاقاً جديدة لفهم طبيعة التفكير الذاتي في الذكاء الاصطناعي ومدى تقدمه.
اكتشافات مذهلة حول نماذج اللغة: كيف تتفاعل مع ذواتها وذوات الآخرين؟
في دراسة جديدة، تم اختبار نماذج اللغات الضخمة (LLMs) في تمرين يتطلب فهم الذات والآخرين. النتائج تُظهر تحسناً كبيراً في أداء النماذج الأحدث، لكن هل تستطيع فعلاً فهم نفسها؟
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
