تشير الأبحاث الحديثة في نماذج الاستدلال الضخمة (Large Reasoning Models) التي تم تدريبها عبر التعلم بالمكافأة (Reinforcement Learning) إلى تحيز طبيعي نحو تقليل التكاليف المعرفية للبشر. إلا أن اكتشافًا جديدًا أظهر أن أسلوب تقليد هذه النماذج - المعروف باسم 'التقطيع المعرفي' - لا ينقل فعليًا البناء المعرفي المطلوب.

حيث قام الباحثون باختبار فرضية "التقليد السطحي" (Superficial Mimicry) عبر 14 نموذجًا مختلفًا. ووجدوا أن تقطير المعرفة يؤدي إلى ظاهرة تُسمى "انهيار تواؤم الوظائف" (Functional Alignment Collapse)، حيث تبدو النماذج التعليمية قادرة على محاكاة صعوبة الإنسان (معدل $ar{r}=0.64$) لكنها أقل أداءً بشكل ملحوظ في الإصدارات المقطرة (معدل $ar{r}=0.34$)، بل إن أداءها أضعف بكثير من أدائها قبل التقطير، وهو ما يعرف بنقل سلبي (Negative Transfer).

تكشف تحليل النتائج أن عملية التنقيح تخلق تأثير "عبادة ناقلة" (Cargo Cult)، حيث تكرر النماذج الطلابية بشكل طقوسي شكل التفكير اللغوي (verbosity) دون استيعاب سياسة تخصيص الموارد الديناميكية للمعلم. بالتالي، قصور التقطير المعرفي يبرز أن التفكير الشبيه بالبشر هو خاصية ناشئة بسبب التعلم النشط، وليس مجرد تقليد سلبي.

هذا الاكتشاف يثير تساؤلًا حول قدرة نماذج الذكاء الاصطناعي على تطوير فهم حقيقي مشابه للبشر، ويحتاج إلى إعادة تقييم الأساليب الحالية لتدريب النماذج الذكية. ما هي تبعات هذه النتائج على مستقبل الذكاء الاصطناعي؟ نحن في انتظار تعليقاتكم.