في الآونة الأخيرة، أثارت نماذج اللغات الضخمة (LLMs) اهتماماً واسعاً بفضل قدراتها المبهرة، ما يجعل من الممكن استخدام الوكلاء الاصطناعيين كبدائل للمشاركين الحقيقيين في أبحاث البشر. ومع ذلك، تبرز تساؤلات جديدة حول ما إذا كانت هذه الأنظمة تحتفظ بتناسق سلوكي كافٍ عند فحصها في ظروف تجريبية مختلفة.
أجرى الباحثون دراسة متعمقة تهدف إلى الكشف عن الملفات اللاتينية (latent profiles) لوكلاء الذكاء الاصطناعي، وتحليل مدى اتساق سلوكهم في محادثات مع وكالات أخرى. تشمل الدراسة طرح مجموعة من الأسئلة التي تكشف عن خصائص الوكيل الخفية وتساعد في تقييم مستوى التناسق في سلوكهم.
الدراسة كشفت عن وجود تناقضات ملحوظة بين نماذج اللغات الضخمة، حيث أظهرت результаты عدم اتساق سلوك هذه النماذج عبر عائلات النماذج المختلفة وبأحجام نماذج متنوعة. يبدو أن الوكلاء يمكنهم توليد ردود تتطابق مع تلك الخاصة بنظرائهم البشريين، لكنهم يفشلون في الاحتفاظ بتناسق تجريبي مطلوب، مما يشير إلى فجوة حرجة في قدراتهم التي تعيق استخدامها كبدائل فعالة للمشاركين في الأبحاث.
هل تملك نماذج اللغات الضخمة (LLMs) سلوكاً متناسقاً؟ اكتشافات جديدة في محاكاة السلوك الاجتماعي
تسلط دراسة جديدة الضوء على الفجوات في سلوك نماذج اللغات الضخمة، مؤكدة أنها قد تفتقر إلى التناسق المطلوب في بيئات البحث البشري. النتائج تشير إلى أن وكالات الذكاء الاصطناعي تحتاج إلى تحسين لتحقيق توافق أفضل مع نماذج السلوك البشري.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
