في عصر الذكاء الاصطناعي (Artificial Intelligence) وتعقد الأنظمة التكنولوجية، يبرز مفهوم "العدالة" كعنصر حاسم في تصميم خوارزميات التعلم الآلي (Machine Learning) وتطبيقاتها. يتضمن هذا البحث دراسة في كيفية اتخاذ القرارات المتتابعة في ظل عدم اليقين، وكيف يمكن أن تؤثر هذه القرارات على المجتمعات المهمشة.

تسلط الورقة الضوء على ضرورة تطوير أساليب تعلم الآلة لتحقيق العدالة، حيث لا يمكن للأدوات الخوارزمية أن تعالج بصورة كاملة القضايا الهيكلية التي تؤدي إلى عدم المساواة. ومع ذلك، يمكن لهذه التكنولوجيا دعم الأنظمة الاجتماعية-التقنية من خلال تسليط الضوء على التحيزات التمييزية ووضوح الخيارات المتاحة للحوكمة.

تم تقديم تصنيف جديد لفهم أنواع عدم اليقين في اتخاذ القرارات المتتابعة، بما في ذلك عدم اليقين المتعلق بالنماذج والتغذية الراجعة والتنبؤات. تشمل النتائج الختامية تحديات تواجهها المجموعات المهمشة بسبب تاريخ الاستبعاد وعدم توفر بيانات كافية، مما يؤدي إلى عواقب وخيمة عند اتخاذ القرارات.

على سبيل المثال، قروض البنوك تُظهر كيف أن المعلومات المحدودة حول الفئات المهمشة قد تؤدي إلى قرارات مُعتمدة على تحيزات سابقة، مما يزيد من الفجوة بين المجموعات المختلفة. من خلال تصميم نموذج يسير على أسلوب التعلم المعزز (Reinforcement Learning) وتمثيل عدم اليقين بشكل منهجي، يمكن للقرارات اتخاذ شكل أكثر إنصافاً مما كانت عليه.

تختتم الورقة بتوجيهات عملية للمتخصصين في هذا المجال لتشخيص المخاطر المتعلقة بعدالة القرارات، مقترحةً أدوات جديدة لعلاج التفاوت ودعوة لمزيد من البحث في هذا المجال.