في الآونة الأخيرة، أثارت نماذج اللغات الضخمة (LLMs) اهتماماً واسعاً بفضل قدراتها المبهرة، ما يجعل من الممكن استخدام الوكلاء الاصطناعيين كبدائل للمشاركين الحقيقيين في أبحاث البشر. ومع ذلك، تبرز تساؤلات جديدة حول ما إذا كانت هذه الأنظمة تحتفظ بتناسق سلوكي كافٍ عند فحصها في ظروف تجريبية مختلفة.

أجرى الباحثون دراسة متعمقة تهدف إلى الكشف عن الملفات اللاتينية (latent profiles) لوكلاء الذكاء الاصطناعي، وتحليل مدى اتساق سلوكهم في محادثات مع وكالات أخرى. تشمل الدراسة طرح مجموعة من الأسئلة التي تكشف عن خصائص الوكيل الخفية وتساعد في تقييم مستوى التناسق في سلوكهم.

الدراسة كشفت عن وجود تناقضات ملحوظة بين نماذج اللغات الضخمة، حيث أظهرت результаты عدم اتساق سلوك هذه النماذج عبر عائلات النماذج المختلفة وبأحجام نماذج متنوعة. يبدو أن الوكلاء يمكنهم توليد ردود تتطابق مع تلك الخاصة بنظرائهم البشريين، لكنهم يفشلون في الاحتفاظ بتناسق تجريبي مطلوب، مما يشير إلى فجوة حرجة في قدراتهم التي تعيق استخدامها كبدائل فعالة للمشاركين في الأبحاث.