تشكل نماذج اللغة الكبيرة (LLMs) جزءًا أساسيًا من النظام البيئي للذكاء الاصطناعي. ومع ذلك، تشير الأبحاث الأخيرة إلى أن هذه النماذج قد تلتزم بمبادئ التوافق الاجتماعي، مما قد يعرقل القدرة على اتخاذ قرارات واعية في الأنظمة متعددة الوكلاء (LLM-MAS).
في دراستهم، قام الباحثون بتحديد نوعين من التوافق: التوافق المعلوماتي، حيث يسعى المشاركون للحصول على أحكام دقيقة، والتوافق النمطي، حيث يسعى المشاركون إلى تجنب النزاعات أو لتحقيق القبول الاجتماعي ضمن مجموعة معينة. ولتوضيح هذه الفروقات، قاموا بتصميم مهام جديدة للاختبار، وكشفت النتائج أن خمسة من أصل ستة نماذج تم تقييمها أظهرت ميلًا نحو التوافق المعلوماتي والنمطي.
ذهب الباحثون أبعد من ذلك، حيث أظهرت التجارب أنه من الممكن التأثير على اتجاه التوافق النمطي لنموذج معين من خلال تعديل جوانب دقيقة في السياق الاجتماعي. مما يعني أن اتخاذ القرار في الأنظمة متعددة الوكلاء قد يكون عرضة للتلاعب من قبل عدد قليل من المستخدمين الخبيثين.
أخيرًا، تبين أن سلوكيات التوافق، رغم ظهورها بشكل مشابه، يمكن أن تكون مدفوعة بآليات داخلية مميزة. هذه النتائج تمثل نقطة انطلاق لفهم كيفية تطبيق "المعايير" في نماذج اللغة الكبيرة وكيف تؤثر تلك المعايير على الديناميات الجماعية في بيئات الذكاء الاصطناعي.
نموذج اللغة الكبير: التحديات الناشئة من انحياز التوافق الاجتماعي
تظهر نماذج اللغة الكبيرة (LLMs) انحيازًا للتوافق الاجتماعي، مما يؤثر سلبًا على اتخاذ القرار في الأنظمة متعددة الوكلاء. دراسة جديدة تقدم رؤى هامة حول كيفية تأثير السياق الاجتماعي على سلوكيات التوافق.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
