في عالم الذكاء الاصطناعي، يمكن أن تؤثر الكلمات بشكل عميق على القرارات التي تتخذها الأنظمة. تُعرف هذه التأثيرات بتغيرات التحيزات المعرفية الناتجة عن المحفزات، وهي ظاهرة يُشاهدها في أنظمة الذكاء الاصطناعي العام (GPAI)، حيث تؤدي الصياغة المنحازة للإدخالات إلى اتخاذ قرارات غير مثالية. ويعد هذا الأمر موضوعًا حيويًا، خاصة في مجال تطوير البرمجيات (Software Engineering)، الذي يعتمد بشكل كبير على لغة طبيعية لتحديد المشكلات والمتطلبات.

لذا، أطلق الباحثون أداة جديدة تُعرف بـ PROBE-SWE، وهي مقياس ديناميكي يربط بين نسخ من مشاكل تطوير البرمجيات تحتوي على صياغة منحازة وغير منحازة، مع مراعاة جوانب المنطق والصعوبة. تستهدف هذه الأداة ثمانية انحيازات ذات صلة بمجال تطوير البرمجيات مثل انحياز التثبيت (Anchoring) وتوافر المعلومات (Availability) وغيرها. الهدف هو مراجعة مدى تأثر أنظمة الذكاء الاصطناعي العام بهذه الصياغات وأساليب التخفيف الممكنة.

وبعد إجراء تجارب واسعة باستخدام استراتيجيات شائعة مثل سلسلة الأفكار (Chain-of-Thought) والتخلص الذاتي من التحيز (Self-Debiasing)، وجد الباحثون أن هذه الطرق لم تؤدي إلى تقليل ملحوظ في حساسية التحيز. ومع ذلك، تبين أن تحسين عملية الاستنتاج عن طريق توضيح الافتراضات القائمة على المعرفة اللازمة يمكن أن يساهم في تقليل التحاملات. فعبر إدخال إشارات استدلالية (Axiomatic Reasoning Cues) قبل تقديم الإجابات، تبيّن أن هذه الطريقة يمكن أن تقلل حساسية التحيز بمعدل 51% في المتوسط، مما يفتح آفاقًا جديدة لتحسين أدوات دعم القرار.

من خلال تحليل مواضيعي، تمكن الباحثون من التعرف على الأنماط اللغوية المرتبطة بزيادة حساسية التحيز، مما يساعد في تحديد متى يجب استخدام الأنظمة الذكية في دعم قرارات تطوير البرمجيات، وأين ينبغي تركيز الجهود المستقبلية لمكافحة التحيزات.

من الواضح أن التفاعل بين اللغة والذكاء الاصطناعي لا يزال مجالًا يستحق المزيد من البحث والاستكشاف. فما رأيكم في هذه النتائج المهمة؟ شاركونا في التعليقات.