في عالم الذكاء الاصطناعي، تتزايد أهمية نماذج اللغات الضخمة (LLMs) في فهم المفاهيم المجردة. مفهوم مثل العدالة، على سبيل المثال، لا يحمل مرجعاً واحداً قابلاً للإدراك. فكيف يُعالج الذكاء الاصطناعي هذا النوع من المفاهيم؟ أجرت دراسة حديثة تحليلًا متعمقًا لهذا الأمر من خلال إعادة تنفيذ تجارب توليد الخصائص المستخدمة في علم الإدراك على 21 نموذجًا من نماذج اللغات الضخمة.
تظهر النتائج أن هناك نمطًا ثابتًا على مستوى هذه النماذج: فعندما تُقارن بردود الفعل البشرية، نجد أن النماذج تعتمد بشكل مفرط على ارتباطات الكلمات، مما يجعلها تُنتج خصائص أقل ارتباطًا بالعواطف والحالات الداخلية. ويؤدي ذلك إلى وجود فجوة تأصيل كبيرة وثابتة، حيث لم تتجاوز أي من النماذج اختبار الاقتران بين النتيجة البشرية والنموذج بأكثر من 0.37، مقارنة بسقف اقتران فوق 0.9 بين البشر.
بدلاً من ذلك، وجد الباحثون في تجارب تقييم أخرى أن النماذج كانت أكثر توافقًا مع حكم البشر عند تقييم فئات التأصيل. وقد تحسن هذا التوافق كلما زادت أحجام النماذج. باستخدام الأكواد التلقائية النادرة (SAEs)، تمكن الباحثون من دراسة ما إذا كانت هذه المعلومات تُعبر عنها في الميزات الداخلية للنماذج، وقد حددوا بالفعل ميزات مرتبطة بأبعاد التأصيل مثل "الحسية الحركية" و "الاجتماعية".
تشير هذه النتائج إلى أن نماذج اللغات الضخمة الحالية يمكنها استعادة أبعاد التأصيل عند سؤالها بشكل مباشر، لكنها لا تستخدمها بطريقة مشابهة للبشر عند توليد الكلمات بحرية.
فجوة التأصيل: كيف تُشكّل نماذج اللغات الضخمة (LLMs) معنى المفاهيم المجردة بشكل مختلف عن البشر؟
تشير دراسة جديدة إلى أن نماذج اللغات الضخمة تواجه فجوة في التأصيل عند معالجة المفاهيم المجردة مثل العدالة. تحليل البيانات يظهر أن نماذج الذكاء الاصطناعي تعتمد بشكل كبير على ارتباطات الكلمات، مما يؤدي إلى قلة ارتباطها بالعواطف والحالات الداخلية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
