تتزايد أهمية نماذج اللغة الكبيرة (Large Language Models) في اتخاذ القرارات التي تتطلب حكماً أخلاقياً. ومع ذلك، بدأت تظهر أدلة تشير إلى أن تفضيلات هذه النماذج ليست محايدة ثقافياً. تستخدم الأساليب الحالية لتوافق الثقافات بيانات تفضيلات لكل دولة وميزانيات تدريب مُتخصصة، أو تفترض وصولاً مفتوحاً إلى المعلومات الداخلية للنموذج، وهو ما لا تسهّله خدمات API التجارية.

في هذه الدراسة الجديدة، نركز على بيئة البيانات العامة فقط، ونُظهر أن الخلافات الاجتماعية والجنسانية داخل الدول، وليس الإجماع، هي الإشارة الأساسية التي توجه التحسين. نقدم طريقة جديدة تُعرف باسم DISCA (Disagreement-Informed Steering for Cultural Alignment)، والتي تعتمد على تحويل كل دولة إلى مجموعة من الوكلاء المستندين إلى مسح القيم العالمية وتحوّل خلافاتهم إلى تصحيح محدد لتقليل الخسائر.

وبينما تم تطبيق هذه الطريقة عبر 20 دولة و7 نماذج مفتوحة الوزن (تتراوح بين 2 مليار و70 مليار معلمة)، أثبتت نتائج DISCA قدرتها على تقليل عدم التوافق الثقافي على منصة MultiTP بنسبة تتراوح بين 10% و24% للنماذج الأكبر من 3.8 مليار معلمة، و2% إلى 7% في الأنشطة المفتوحة، كل ذلك دون تغيير أي أوزان.

تشير النتائج إلى أن المعايرة في وقت الاستنتاج تمثل بديلاً قابلاً للتوسع عن التدريب لتلبية احتياجات التفضيلات الأخلاقية على مستوى العالم.