في عالم الذكاء الاصطناعي، تعد القرارات المُعتمدة على خوارزميات التعلم الآلي في المجالات الاجتماعية، مثل قرارات الائتمان، ذات أهمية بالغة. وكثيراً ما تركز هذه الخوارزميات على تحقيق نتائج تنبؤية متساوية بين الأفراد، لكن هل هذا يكفي لضمان العدالة؟ يواجه الباحثون الآن حقيقة مُفاجئة، وهي أن النماذج العادلة قد تكون في الواقع تستخدم طرق تفكير مختلفة تمامًا للأفراد، مما يُسمى "التحيز الإجرائي الخفي" (Hidden Procedural Bias).

للكشف عن هذا النوع من التحيز والحد منه، تم اقتراح إطار عمل يُعرف باسم "اتساق التفسير المضاد" (Counterfactual Explanation Consistency). يعمل هذا الإطار على مواءمة تقييمات الميزات بين الأفراد ونظرائهم في السيناريوهات المضادة، مما يساعد على ضمان أن جميع الأفراد يخضعون لنفس معايير التفكير عند اتخاذ القرارات.

تتضمن المساهمات الرئيسية في هذا العمل تطوير طريقة لتوليد السيناريوهات المضادة، وتعديل معايير مقارنة التدرجات المتكاملة، بالإضافة إلى تقديم مقياس للعدالة الإجرائية على مستوى الأفراد. وقد تم تحديد تصنيف يُسمى "النظام ب" (Regime B)، والذي يشير إلى الحالة التي تشترك فيها الانتقالات بنفس النتيجة ولكن باستخدام طرق تفكير مختلفة، كمنطقة اهتمام حرجة.

أظهرت التجارب التي أجريت على بيانات اصطناعية وبيانات متنوعة مثل بيانات الائتمان الألمانية ومدخول البالغين أن النماذج التي تُعتبر عادلة حسب المخرجات تبدو في الحقيقة تتضمن تحيزات خفية كبيرة، بينما يمكن لإطار العمل CEC أن يقلل من هذا التحيز بشكل كبير مع تكلفة فائدة متواضعة.