في عالم نماذج اللغة الضخمة (LLMs)، تكشف الأبحاث الجديدة عن علاقة مثيرة بين الهوية والشخصية والتفضيلات السلوكية. تعتبر هذه النماذج لديها تفضيلات واضحة، حيث تميل لاختيار مهام واستجابات معينة على أخرى، وهذه التفضيلات تتشكل من خلال الإعدادات اللاحقة للتدريب. لكن ما هو مثير للاهتمام هو أن النماذج يمكن أن تتبنى شخصيات مختلفة، مما يؤدي إلى تفضيلات متباينة تمامًا.

للإجابة على هذا السؤال الشائك، أجرى الباحثون تجارب على نماذج مثل Gemma-3-27B وQwen-3.5-122B، حيث قاموا بتدريب نماذج خطية بسيطة (linear probes) للتنبؤ بالاختيارات المهمة في المهام المختلفة. النتائج كانت مذهلة؛ حيث تم تحديد ما يعرف بـ "متجه التفضيل" (preference vector)، والذي يتتبع كيف تتغير تفضيلات النموذج عبر مجموعة من الإعدادات.

عند دراسة نموذج Gemma-3-27B، وجد الباحثون أن توجيه النموذج بناءً على هذا المتجه يمكن أن يؤثر فعليًا على الاختيارات؛ مما يفتح مجالًا واسعا للتطبيقات المستقبلية.

للإضافة، تركت الدراسات بصمة في كيفية استخدام النماذج المعلوماتية نفسها لتهتم بتفضيلات مصممة خصيصًا، حيث أظهر نموذج تم تدريبه على مهام المساعد المفيد أنه يمكنه التنبؤ بسلوكيات شخصيات مختلفة، بما في ذلك شخصية شريرة تفضل الأفعال المتعارضة.

تُظهر هذه الدراسة كيف يمكن أن تكون التفضيلات المشتركة تحت السطح بين الشخصيات المختلفة، مما يدعو للتفكير في كيفية تطوير نماذج اللغة لتكون أكثر دقة واستجابة للاحتياجات المتنوعة لمستخدمينا.