في عالم يتزايد فيه استخدام أنظمة التعرف على مشاعر الصوت (Speech Emotion Recognition - SER) في مجالات حساسة مثل الصحة النفسية والتعليم، تتزايد الحاجة إلى ضمان عدم وجود تحيزات تؤدي إلى حدوث أضرار. غالباً ما تتجاهل المعايير التقليدية للعدالة مثل الفرص المتساوية (Equalised Odds) والتوازن الديموغرافي (Demographic Parity) الاعتماد المشترك بين الخصائص الديموغرافية وتنبؤات النموذج.
لذا، تم تقديم نموذج جديد يقدم طريقة أكثر دقة لقياس العدالة في أنظمة (SER)، حيث يتمثل جوهر الابتكار في ميزان العدالة الذي يلتقط التحيز التوزيعي (Allocative Bias) بشكل واضح من خلال تعلم العلاقة المشتركة بين الصفات الديموغرافية وأخطاء النموذج.
تم التحقق من صحة هذا المعيار الجديد باستخدام بيانات مصطنعة، ثم تم تطبيقه لتقييم نماذج (HuBERT) و(WavLM) التي تم تحسينها باستخدام مجموعة بيانات (CREMA-D). أظهرت النتائج أن النموذج المقترح يمكنه التقاط المزيد من المعلومات المتبادلة بين الصفات المحمية والانحيازات، كما quantifies مساهمة كل صفة فردية في التحجّز في أنظمة (SER) المعتمدة على التعلم الذاتي (SSL).
علاوة على ذلك، تكشف التحليلات عن مؤشرات على وجود تحيز جنسي في كل من نماذج (HuBERT) و(WavLM)، مما يسهل الفهم الأفضل لتحديات العدالة الاجتماعية في تطبيقات الذكاء الاصطناعي.
هذه التطورات تمثل خطوة هامة نحو التعاطي بشكل أفضل مع التحيزات الاجتماعية في أنظمة الذكاء الاصطناعي.
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
تعرف على ثورة الذكاء الاصطناعي: نموذج جديد للكشف عن مشاعر الصوت يزيد من العدالة الاجتماعية
تتحدى أنظمة التعرف على مشاعر الصوت التقليدية التحيزات الاجتماعية وتهدف إلى تحسين دقة التنبؤات. تم تطوير نموذج جديد يركز على العدالة في كيفية تأثير الفئات الاجتماعية على هذه الأنظمة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
