في زمن التكنولوجيا المتقدمة، أصبحت نماذج تحويل النص إلى صورة (T2I) جزءاً لا يتجزأ من حياتنا. تُستخدم هذه النماذج لإنشاء محتوى تعليمي وإعلامي، ولكنها أيضاً تحمل معها تحديات كبيرة، خاصةً فيما يتعلق بالتحيز الجندري.

تشير الدراسات إلى أن الصور التي يتم إنتاجها بواسطة هذه النماذج قد تعزز الصور النمطية، مما يساهم في ما يُعرف باسم "الإزالة التمثيلية"، حيث تُظهر الصور أدواراً محددة تُعزز التصورات عن من ينتمي إلى هذه الأدوار. لذا يتزايد الاهتمام في كيفية قياس هذا التحيز الجندري بشكل فعال.

الإطار الذي نقترحه يشمل فحصًا دقيقًا يعتمد على مستويات المخاطر (risk-aligned auditing framework). يتألف هذا الإطار من ثلاث مكونات رئيسية تهدف إلى ربط فئات المخاطر، مقاييس التقييم والأضرار.

- **فئات الاستخدام المرتبطة بالمخاطر**: نحدد ملفات تعريف الاستخدام المرتبطة بمخاطر التحيز الجندري وفقاً لفئات المخاطر في قانون الذكاء الاصطناعي في الاتحاد الأوروبي، مما يوضح أن توقعات التدقيق قد تختلف وفقاً للسياقات المختلفة وتعامل المعنيين.
- **كتالوج المقاييس**: نقدم كتالوجًا ينظم طرق تقييم التحيز الجندري في ثلاث فئات قياسية، تشمل التنبؤ بالجنس، تشابه التضمينات، والمهام في المراحل اللاحقة.
- **نموذج الضرر**: نُدخل نوعًا من الأضرار التي تربط الفئات الضارة بناءً على السياق، مثل الضرر التمثيلي أو جودة الخدمة.

وبالإضافة إلى ذلك، نُقدم بطاقات THUMB التي تهدف إلى تشكيل نظام تدقيق منظم يتضمن السياق، السيناريو، وتجليات التحيز، بالإضافة إلى استراتيجيات التدقيق الضرورية.

من الذي يتحمل المسؤولية عن الصور التي تُنتجها هذه النماذج؟ وكيف يمكننا ضمان أن تساهم تكنولوجيا الذكاء الاصطناعي في تعزيز العدالة والتنويع بدلاً من تعزيز الصور النمطية؟

ما رأيكم في هذا التطور؟ شاركونا في التعليقات.