في ظل التقدم السريع الذي شهدته نماذج اللغة الضخمة (Large Language Models) خلال الفترة الأخيرة، بدأ الاهتمام يتزايد باستخدام عملاء الذكاء الاصطناعي (AI Agents) لدراسة الديناميكيات الاجتماعية. ولكن، وعلى الرغم من هذه الزيادة في الاهتمام، تشير الأبحاث إلى أن الاعتماد على هؤلاء العملاء بمفردهم قد لا يكون كافياً لتحقيق محاكاة اجتماعية فعالة ودقيقة.

تُظهر الدراسات أن هناك تفاؤلاً مفرطاً حول فعالية هؤلاء العملاء بعد وضعهم في بيئات شبكة عدة وكالات. لكن، يجب أن نُدرك أن تنفيذ محاكاة تتطلب أكثر من مجرد وضع عملاء داخل شبكة. تكمن مشكلة رئيسية في عدم توافق ما تقدمه الأنظمة الحالية من نتائج مع احتياجات المحاكاة كعلم.

تتطلب المحاكاة الاجتماعية نتائج تتعلق بالواقعية والسلوك البشري، لكن العملاء الحاليين لا يقدمون بالضرورة تنبؤات عدوانية أو شاملة حول سلوك البشر. فالتفاعل بين العملاء والبيئة يؤثر على النتائج بشكل كبير، وليس مجرد التواصل بين العملاء أنفسهم. كما أن النتائج يمكن أن تتأثر أيضاً بالبروتوكولات الخاصة بالتفاعل، والجدولة، والمعلومات الأولية.

لذا، يقدم الباحثون نموذجًا موحدًا لفهم محاكاة المجتمع المعتمدة على عملاء الذكاء الاصطناعي كمباراة ماركوف (Markov game)، حيث يتيح هذا الفهم آلية واضحة للتصميم والتقييم والتفسير بعيدًا عن التفاؤل المفرط. يفتح هذا النموذج أفقاً جديداً لفهم التحديات والمخاطر التي يمكن تجاوزها في هذا المجال.