في عالم الذكاء الاصطناعي، أصبحت النماذج اللغوية الضخمة (LLMs) من الأدوات الرائدة المستخدمة لتعزيز تجربة المستخدمين عبر الإنترنت. ومع ذلك، يشير بحث جديد إلى أن مرحلة ما بعد التدريب، وهي الخطوة التي تحول النماذج الأساسية إلى مساعدين مفيدين، تؤدي إلى تقليل دقة هذه النماذج في محاكاة السلوك البشري.
هذا البحث، الذي تم نشره في مجموعة بيانات جديدة تسمى Psych-201، يهدف إلى قياس مدى توافق سلوك النماذج اللغوية مع السلوك البشري على نطاق واسع. وقد أظهرت النتائج أن عمليات ما بعد التدريب تقلل بشكل مستمر من تطابق النماذج مع السلوكيات الإنسانية عبر عائلات النماذج، والأحجام، والأهداف.
ما يثير القلق أكثر هو أن هذه الفجوة في التطابق تتسع مع تطور الأجيال الجديدة من النماذج على الرغم من التحسينات المستمرة في النماذج الأساسية.
بالإضافة إلى ذلك، تم اختبار تقنية تُعرف باسم استقراء الشخصية (persona-induction) والتي تُستخدم لاستدعاء سلوكيات قريبة من الإنسان من خلال تكييف النماذج مع معلومات محددة عن المشاركين. ومع ذلك، لم تُظهر هذه التقنية أي تحسينات في التنبؤات على مستوى الأفراد، مما يعزز فرضية أن الأساليب الحالية قد تُضعف في الواقع من دقة هذه النماذج في تمثيل السلوك البشري.
هذا الاكتشاف يفتح باب النقاش حول فعالية النماذج اللغوية الضخمة في مساعدتنا، ويدعو إلى إعادة تقييم كيفية تحسينها لتكون أكثر توافقًا مع التجربة الإنسانية. هل يؤدي السعي لجعل هذه النماذج أكثر فائدة إلى نتائج عكسية؟
كونوا مستعدين لوقائع جديدة! ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
هل تجعل النماذج اللغوية الضخمة (LLMs) أقل إنسانية؟ إليك الإجابة!
دعونا نستكشف كيف تؤثر مراحل ما بعد التدريب على نماذج اللغة الكبيرة وتقلل من تطابقها مع السلوك البشري. هذا الاكتشاف يفتح آفاق نقاش جديدة حول كفاءة هذه التقنية في محاكاة الإنسان.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
