يُعتبر تعديل سلوك نماذج اللغات الضخمة (LLM) أداة هامة في توجيه سلوكيات هذه النماذج، ولكن يبقى السؤال: هل نتحدث عن تغيرات سريعة وسطحية فقط، أم أن هناك هيكل سلوكي مستقر يمكن الاعتماد عليه؟
في دراسة حديثة، تم طرح إطار عمل يستخدم اختبارات الحكم السياقي (SJTs) ونظرية استجابة العناصر متعددة الأبعاد (MIRT) لفهم سلوكيات الذكاء الاصطناعي بعمق أكبر. في هذا الإطار، تُعتبر استجابات النماذج مرآة لسمات سلوكية خفية.
ومن خلال نتائج تحليل بيانات كبيرة من اختبارات الحكم السياقي ونماذج شخصية مصطنعة، وُجد أن سلوكيات الذكاء الاصطناعي المعدلة تبقى مستقرة عبر تجارب متعددة. كما أظهرت الدرجات الخفية المرتبطة بهذه السلوكيات قدرتها على التنبؤ بمعايير خارجية مثل TruthfulQA وEmoBench، مما يعكس هيكل خفي مستقر.
تم التحقق من هذه النتائج من خلال التقييم البشري، وتحليل تقييم المعايير الداخلية، مما يزيد من موثوقية النتائج. تحمّل الدراسة رسالة مهمة: يمكن أن يقدم التقييم النفسي القائم على السيناريو بديلاً أكثر موثوقية لتقييم سلوكيات LLM مقارنة بالأساليب التقليدية.
كما تم إطلاق مجموعة بيانات لدعم الأبحاث المستقبلية في هذا المجال، مما ينفتح أمام الباحثين فرصة لاستكشاف المزيد عن سلوكيات أنظمة الذكاء الاصطناعي. هل تعتقد أن هذا الإطار الجديد سيساعد في تحسين سلوكيات الذكاء الاصطناعي في المستقبل؟ شاركونا آراءكم في التعليقات.
قياس ما يهم: تقييم نفسي للذكاء الاصطناعي باستخدام اختبارات الحكم السياقي
تُظهر الدراسة الجديدة أن تعديل سلوك نماذج اللغات الضخمة (LLM) يمكن أن يؤدي إلى استجابات سلوكية مستقرة بدلاً من مجرد تغير سطحي. من خلال اختبارات الحكم السياقي، نشأت طريقة جديدة لفهم سلوكيات الذكاء الاصطناعي بشكل أعمق.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
