تتجلى مشكلة الانحياز في الذكاء الاصطناعي بشكل متزايد، حيث تُظهر النماذج التي تم تدريبها على مجموعات بيانات متحيزة عدم قدرتها على محاكاة الحقيقة، بل وتزداد سوءًا في نتائجها عند الاختبار. هذه الظاهرة تُعرف باسم تضخيم الانحياز (Bias Amplification).

في الوقت الحالي، تُستخدم عدة مقاييس لقياس تضخيم الانحياز، ولكن معظمها يقتصر فقط على مجموعات البيانات التصنيفية. المشكلة هنا أن هذه المقاييس لا تتمكن من التقاط المعنى اللغوي للتسميات في الصور. لمواجهة هذه المشكلة، تم تقديم مقياس يُسمى تسرب في التسميات (Leakage in Captioning - LIC)، وهو مقياس يهتم بفهم دلالة التسميات في اللغات. لكن، يكمن التحدي في عدم قدرة LIC على تحديد مصدر تضخيم الانحياز في نماذج التسميات.

لذا، قدّم الباحثون مقياسًا جديدًا يُعرف بتضخيم الانحياز الاتجاهي في التسميات (Directional Bias Amplification in Captioning - DBAC)، والذي يُعد مقياسًا موجهًا يتيح فهمًا أعمق لتضخيم الانحياز في تسميات الصور.

يمتاز DBAC بتحسينين هامّين مقارنةً بـ LIC: أولاً، إنه أقل حساسية للمُشفّرين الجمل (Sentence Encoders)، وهو أمر بدلاً عن إيجاد الحلول البرمجية، وثانيًا، يُقدّم تقديرًا أكثر دقة في تقدير تضخيم الانحياز في التسميات.

أظهرت التجارب التي تم إجراؤها على سمات الجنس والعرق في مجموعة بيانات تسميات COCO أن DBAC هو المقياس الوحيد القادر على قياس تضخيم الانحياز في التسميات بدقة وموثوقية.

إذا كنت مهتمًا بفهم تأثير الذكاء الاصطناعي على مجالات الحياة المختلفة، فلا تفوت فرصة التعمق في هذا الموضوع المثير! ما رأيكم في هذا التطور؟ شاركونا في التعليقات.