في عصر يزداد فيه الاعتماد على الذكاء الاصطناعي (AI) لاتخاذ القرارات، يأتي التفسير كعنصر أساسي لضمان الشفافية والعدالة. ومع ذلك، لا تزال هناك العديد من التساؤلات حول مدى عدالة الطريقة التي تفسر بها نماذج اللغة الضخمة (Large Language Models) قراراتها، خاصة عندما يتعلق الأمر بالاختلافات بين المجموعات السكانية.

قدمت دراسة حديثة إطار عمل جديد يعرف باسم "تصنيف العدالة في التفسير" (Explanation Fairness Taxonomy - EFT) والذي يركز على خمسة أبعاد رئيسية:
1. **فجوة verbosity**: مدى تفصيل التفسيرات المقدمة.
2. **فجوة المشاعر**: الاختلاف في النغمة العاطفية للتفسيرات.
3. **فجوة الحذر المعرفي**: اختلافات في كيفية تقديم المعرفة والتفسير.
4. **فجوة التفسير المرتبط بالقرار**: العلاقة بين القرار والتفسير المقدم.
5. **فجوة التعقيد اللغوي**: مدى تعقيد اللغة المستخدمة في التفسيرات.

جرت دراسات تجريبية على 80 نموذجًا مختلفًا عبر أربع مجالات مهمة مثل التوظيف والتقييم الطبي والتقييم الائتماني والأحكام القانونية. استخدم الباحثون أيضًا مقاييس جديدة مثل "درجة الكثافة الحذرة" (Hedging Density Score) و"مؤشر موثوقية التفسير" (Explanation Faithfulness Proxy) لتقييم التفاوتات الموجودة في التفسيرات.

تشير النتائج إلى وجود تفاوتات كبيرة بين النماذج، حيث أن نموذج Qwen3 32B يظهر تفوقًا في فجواتverbosity يصل إلى 5.9 ضعف مقارنة بنموذج LLaMA 3.3 70B. برزت أيضًا بعض الاستراتيجيات المعتمدة على التصميم، والتي أظهرت فعالية في تقليل تفاوتات EFP بنسبة تصل إلى 95%. ومع ذلك، لم تؤثر هذه التعديلات بشكل كبير على الأبعاد الأسلوبية، مما يسلط الضوء على أن عدم المساواة في التفسير قد يكون مدفوعًا بعوامل تم تضمينها خلال مراحل التدريب الأولية.

تشير هذه الدراسة إلى أهمية إنشاء إطار عمل قابل للتكرار لتدقيق العدالة في التفسير، مع آثار هامة على تنظيم الذكاء الاصطناعي والممارسات المتعلقة به.