في عصر تعتمد فيه القرارات على تقنيات التعلم الآلي (Machine Learning)، يبرز مفهوم العدالة كأحد الأولويات الأساسية. غالبًا ما يتم تقييم العدالة من خلال مقاييس تركز على النتائج، مثل مقياس التساوي الديموغرافي (Demographic Parity)، الذي يقيس ما إذا كانت التنبؤات تتسم بالتناسق الإحصائي عبر مجموعات محمية. ومع ذلك، تظل هذه المقاييس عاجزة عن تحديد ما إذا كان النموذج يستخدم تفكيرًا مختلفًا بشكل منهجي لمجموعات سكانية مختلفة، وهو ما يُعتبر انتهاكًا لمبادئ العدالة الإجرائية.

تزداد تعقيد هذه المشكلة عندما يتعلق الأمر بالمتقاطعات (Intersectionality)، حيث قد يبدو النموذج عادلاً عند تقييمه لسمات فردية مثل العرق، بينما يظهر فجوات كبيرة للمجموعات الفرعية المتقاطعة مثل العرق والجنس معًا. هذه الظاهرة تُعرف بـ"انتقائية العدالة" (Fairness Gerrymandering).

هنا يبرز مقياس "استقرار الشرح المتعدد الفئات" (Multi-category Explanation Stability Disparity - MESD) كأداة مبتكرة تقيس الفجوات في جودة الشرح عبر المجموعات الفرعية المتقاطعة، التي تتشكل من ضرب كارتيسي لعدة سمات محمية. يتضمن مقياس MESD ثلاثة مكونات رئيسية:
1. **تجميع مدرك للتسميات** يتماشى مع العدالة الشرطية على النتائج،
2. **تقلص باي التجريبي** لدعم التقديرات للمجموعات الفرعية الصغيرة،
3. **وزن قيمة المخاطر الشرطية** (Conditional Value-at-Risk - CVaR) لتسليط الضوء على الفجوات الأسوأ.

لقد قمنا بإدماج MESD ضمن إطار تحسين متعدد الأهداف (Multi-objective Optimization Framework) يُعرف باسم UEF، الذي يعمل على تعزيز الفائدة، والعدالة الناتجة، والعدالة الإجرائية باستخدام خوارزمية NSGA-II.

تم تقييم MESD و UEF على ثلاثة مجموعات بيانات مرجعية ومقارنتها بأربعة طرق متقدمة في عدة تجارب. وقد أثبتنا أن MESD يكشف عن disparities إجرائية غير مرئية لمقاييس النتائج وحدها.

تتموضع مساهمتنا ضمن نظرية العدالة الإجرائية ونتناول في هذا النص تداعياتها على الامتثال التنظيمي والعدالة المتقاطعة. هل أنتم مستعدون لخوض غمار هذه النقاشات المهمة حول العدالة في الذكاء الاصطناعي؟