في عالم الذكاء الاصطناعي، تعتبر نماذج اللغة الضخمة (Large Language Models) هي إحدى أبرز الابتكارات التي استحوذت على انتباه الباحثين والمطورين. منذ ظهور هذه النماذج، أصبح موضوع التحيزات الموجودة فيها، لاسيما في الخطابات السياسية، محط اهتمام متزايد. في دراسة جديدة، يسعى الباحثون لاستكشاف مفهوم جديد يُعرف بـ 'المرونة السياسية'، والذي يشير إلى قدرة هذه النماذج على تعديل استجاباتها بناءً على السياقات المقدمة من المستخدم.

للتحليل، تم تطوير إطار اختبار يعتمد على مجموعة موسعة تضم 200 سؤالاً مرتكزاً على السياسة، تغطي محاور الحرية الاقتصادية والشخصية، مستندين إلى إطار عمل قديم وضعه ليستر (Lester) في عام 1996. حاولت الدراسة تطبيق عدة طرق لتحفيز انحيازات سياسية، بما في ذلك المطالبات النظامية المبسطة القائمة على الموضوعات، وكذلك المطالبات التي قدمها المستخدم مع أمثلة محدودة.

أظهرت النتائج أن المطالبات النظامية لم تكن فعالة بشكل كبير، بينما أثبتت المطالبات التي قدمها المستخدم فعاليتها في إدخال تحولات إيديولوجية ملحوظة، خاصة على محور الحرية الاقتصادية في النماذج الأكبر والأحدث. من خلال تجربة تحقق، تم فحص ما إذا كانت النماذج تستجيب للمسائل من خلال التعرف على صيغة السؤال الأساسي. وقد أظهرت تجربة عكس معنى الأسئلة تحولات غير متوقعة ومفاجئة في معظم النماذج، مما يشير إلى احتمال تسرب البيانات.

أخيراً، تم تحليل كيفية اختلاف مرونة النماذج عند إجراء التجربة بلغات مختلفة. وقد كشفت النتائج عن تحولات دقيقة لكن ملحوظة عبر كل من اللغات المدروسة. بشكل عام، أظهرت النتائج أن نماذج LLMs الصغيرة والقديمة تعاني من مرونة سياسية محدودة أو غير مستقرة، بينما تظهر النماذج الأحدث قدرة موثوقة وقابلة للتكيف.