في عالم الذكاء الاصطناعي القابل للتفسير (Explainable AI)، تُعتبر قيم شابلي (Shapley Values) حجر الزاوية، لكن الطفرة في صياغاتها المختلفة أدت إلى ظهور مشهد مجزأ يفتقر إلى توافق حول كيفية التطبيق العملي لها. تتعامل هذه الدراسة الجديدة مع إشكالية تقييم فعالية هذه القيم، حيث تبين أن الاعتماد على المقاييس الكمية مثل التشتت والولاء لا يتماشى مع الفهم البشري للوضوح وفائدة القرار.

بفضل إطار موحد ومبني على التجارب، استعرض الباحثون الفروقات الدلالية بين ثماني صيغ من قيم شابلي تحت قيود زمنية منخفضة في سياقات المخاطر التشغيلية. وقد تم تنفيذ تقييم تجريبي واسع النطاق عبر أربعة مجموعات بيانات للمخاطر وبيئة حقيقية لاكتشاف الاحتيالات، بمشاركة محللين محترفين استعرضوا 3,735 حالة.

أظهرت النتائج وجود انحراف أساسي حيث لم تُحسن أي صيغة الأداء الموضوعي للمحللين، لكن التفسيرات زادت باستمرار من ثقة اتخاذ القرار. هذا يعكس خطر التحيز الآلي في بيئات تتطلب دقة عالية. وبالتالي، توصلت الدراسة إلى أن أدوات التقييم الحالية غير كافية لتوقع التأثير البشري اللاحق، مسلطة الضوء على أهمية اختيار الصياغات والمقاييس المناسبة في أنظمة اتخاذ القرار التشغيلية.