في عالم الذكاء الاصطناعي الحديث، أصبح من المهم تقييم قوة النماذج في ظل ظروف صعبة. أحدث الدراسات تركزت على نماذج التعلم المعزز من مكافآت العاطفة القابلة للتحقق (RLVER)، والتي أثبتت كفاءتها في الأداء المتعاطف، مستندة إلى معايير تفترض وجود مستخدمين تعاونين وصادقين. لكن ماذا سيحدث عندما يواجه هذا الذكاء الاصطناعي تفاعلات عاطفية واقعية يسود فيها الاستغلال والضغط؟

لإجراء هذه الدراسات، تم تطوير Benchmark التعاطف العدائي (AEB) ومؤشر الاتساق العاطفي (ECS). يضم AEB ستة أنواع من المسارات العدائية النفسية التي تهدف إلى تقييم استجابة النماذج في ظل ضغط نفسي شديد. بينما يحدد ECS مدى قدرة النموذج على تتبع حالات المستخدم العاطفية.

خلال تجريب مُحكم شمل ثماني ظروف متطابقة، قارن الباحثون أداء نماذج RLVER مع نماذج أساسية أخرى. وأظهرت النتائج أن نموذج RLVER-PPO-Think فاق أداء النموذج الأساسي بشكل ملحوظ.

ومع ذلك، رغم هذا الأداء الجيد، ظل مؤشر ECS ثابتًا، ما يعني أن التدريب على التعلم المعزز حسّن الاستجابة العاطفية دون تحسين ملحوظ في تتبع الحالات العاطفية observable. يُشير ذلك إلى فجوة سلوكية بين الاستجابة العاطفية والفهم الداخلي في نماذج المحاكاة.

هل يمكن للذكاء الاصطناعي حقًا فهم المشاعر العاطفية كما نفعل؟ هل تعتقد أن هذه النماذج تعتبر خطوة نحو الذكاء الاصطناعي العاطفي الحقيقي؟ شاركونا آراءكم في التعليقات.