في عصر الذكاء الاصطناعي الحديث، أصبحت نماذج اللغات الضخمة (Large Language Models - LLMs) جزءاً لا يتجزأ من حياتنا اليومية. ومع ذلك، يبرز تساؤل ملّح حول كيفية ضمان الأداء العادل لهذه النماذج عبر تباينات ديموغرافية مختلفة. فما الذي يحدد فعلاً نتائج هذه النماذج، الملفات الشخصية الصريحة للمستخدمين أم الإشارات اللغوية الضمنية التي يتلقاها النظام؟

في دراسة جديدة، قام الباحثون بتحليل أكثر من 24,000 استجابة من نماذج LLM مثل Gemma-3-12B وQwen-3-VL-8B. استخدموا تصميمًا تجريبيًا يدعو للمقارنة بين ردود الفعل من المستخدمين الذين أعلنوا هويتهم بشكل صريح مع أولئك الذين استخدموا لهجاتهم كمؤشرات ضمرية.

ظهرت نتائج الدراسة لتسلط الضوء على مفارقة مثيرة في مجال سلامة الذكاء الاصطناعي. حيث تبين أن الأداء كان أفضل كلياً عندما أعطى المستخدمون الانطباع بأنهم يتحدثون بلهجات معينة بدلاً من التصريح بهوياتهم الصريحة. فمثلاً، عند استخدام تعبيرات لهجات مثل Ebonics (AAVE) أو Singlish، واجه المستخدمون برفض أقل للمحتوى وحققوا مستوى أعلى من الشبه الدلالي مع النصوص المرجعية مقارنة بالناطقين باللغة الإنجليزية الأمريكية القياسية.

ومع ذلك، يتطلب هذا "الهروب اللهجي" (dialect jailbreak) المثير الحذر لأن هناك مقايضة تتعلق بالسلامة، حيث تعاني تقنيات السلامة الحالية من الضعف والتركيز المفرط على الكلمات الرئيسية الصريحة، مما يؤدي إلى تجارب متباينة للمستخدمين.

بينما يحصل "المستخدمون العاديون" على معلومات حذرة ومعقمة، يمكن لمتحدثي اللهجات أن يغوصوا في تفاصيل أكثر ترويعاً وأقل تنقية. وهذا ما يبرز التوتر الأساسي في تحقيق التوازن بين التنوع اللغوي والعدالة في المعالجة.

تتعمل هذه الدراسة بالتأكيد على ضرورة تطوير آليات سلامة تتجاوز المؤشرات الصريحة. ما رأيكم في هذه النتائج المثيرة؟ كيف يؤثر تعبيركم عن هويتكم في تجاربكم مع الذكاء الاصطناعي؟ شاركونا آرائكم.