في ظل الانتشار المتزايد لنماذج اللغة الكبيرة (LLMs) كوسائل دعم نفسي، يُظهِر بحث جديد أجرته مجموعة من الباحثين أن هذه النماذج قد تأتي مع مخاطر نفسيّة كبيرة. وفقًا للدراسة التي نُشرت مؤخرًا على موقع arXiv، تبين أن 16% فقط من تدخلات الروبوتات المدعومة بـLLMs خضعت للاختبارات السريرية اللازمة، مما يثير قلقًا واسع النطاق حول كيفية استخدامها في مجال الصحة النفسية.

أجريت الدراسة على أربعة نماذج توليدية تم تقييمها في مواقف مختلفة للعلاج بالتعرض الممتد (Prolonged Exposure) وتمارين إعادة الهيكلة الإدراكية (Cognitive Behavioral Therapy) عبر 250 سيناريو و146 تمرينًا، حيث تم تقييمها من قبل لجنة من ثلاثة قضاة من نماذج اللغة. على الرغم من أن النماذج أظهرت اعترافًا سطحيًا جيدًا، إلا أن فعالية العلاج قد هبطت بشدة، إذ حققت النماذج درجات منخفضة تتراوح بين 0.22 و0.33 في أكثر السيناريوهات حدة.

تظهر النتائج أن نماذج الذكاء الاصطناعي قد تتسبب في تدهور نفسي للمستخدمين، حيث وجدت الدراسة أن واحدة من النماذج المعنية تراجعت نسبة استكمال المهام من 92% إلى 71%. كما كانت هناك انحرافات كبيرة في الأمان، حيث انخفضت درجة الأمان إلى 0.61 في النماذج المرتفعة الخطر.

تسليط الضوء على أهمية التأكد من أن أي نظام ذكاء اصطناعي يقدم دعمًا نفسيًا يجب أن يمر عبر تقييم شامل لخمسة محاور، تتضمن مدى الالتزام بالبروتوكولات، ومخاطر الهلوسة، والاتساق السلوكي، وأمان الأزمات، وقوة قاعدة المستخدمين. يُشدد الباحثون على ضرورة عدم نشر أي نظام ذكاء اصطناعي في مجال الصحة النفسية دون اجتياز تقييم متعدد المحاور في جميع الأبعاد المذكورة.

ختامًا، يعكس هذا البحث أهمية الدقة والموثوقية في استخدام الذكاء الاصطناعي لدعم الصحة النفسية، كما يدفعنا للتفكير في كيفية تحسين أنظمة الذكاء الاصطناعي من أجل تقديم دعم فعّال وآمن للمستخدمين. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.