تشكل نماذج اللغة الكبيرة (LLMs) جزءًا أساسيًا من النظام البيئي للذكاء الاصطناعي. ومع ذلك، تشير الأبحاث الأخيرة إلى أن هذه النماذج قد تلتزم بمبادئ التوافق الاجتماعي، مما قد يعرقل القدرة على اتخاذ قرارات واعية في الأنظمة متعددة الوكلاء (LLM-MAS).

في دراستهم، قام الباحثون بتحديد نوعين من التوافق: التوافق المعلوماتي، حيث يسعى المشاركون للحصول على أحكام دقيقة، والتوافق النمطي، حيث يسعى المشاركون إلى تجنب النزاعات أو لتحقيق القبول الاجتماعي ضمن مجموعة معينة. ولتوضيح هذه الفروقات، قاموا بتصميم مهام جديدة للاختبار، وكشفت النتائج أن خمسة من أصل ستة نماذج تم تقييمها أظهرت ميلًا نحو التوافق المعلوماتي والنمطي.

ذهب الباحثون أبعد من ذلك، حيث أظهرت التجارب أنه من الممكن التأثير على اتجاه التوافق النمطي لنموذج معين من خلال تعديل جوانب دقيقة في السياق الاجتماعي. مما يعني أن اتخاذ القرار في الأنظمة متعددة الوكلاء قد يكون عرضة للتلاعب من قبل عدد قليل من المستخدمين الخبيثين.

أخيرًا، تبين أن سلوكيات التوافق، رغم ظهورها بشكل مشابه، يمكن أن تكون مدفوعة بآليات داخلية مميزة. هذه النتائج تمثل نقطة انطلاق لفهم كيفية تطبيق "المعايير" في نماذج اللغة الكبيرة وكيف تؤثر تلك المعايير على الديناميات الجماعية في بيئات الذكاء الاصطناعي.