في عالم الذكاء الاصطناعي، تتجلى أهمية تنسيق الوكلاء المستقلين بشكل متزايد، خاصة مع تصاعد أنظمة نماذج اللغات الكبيرة (Large Language Models) والتفاعلات المعقدة التي تطرأ بين هذه النماذج. تكمن التحديات في تقييم ديناميكيات التنسيق الطارئ، حيث تتجاهل الأنظمة الحالية تقييم الوكلاء بمجموعات صغيرة أو منظمات هيكلية محددة، وهذا ما يجعل الفهم التام للآليات المعقدة أمرًا صعبًا.

لتجاوز هذه المشكلة، تم تقديم إطار تقييم مبتكر يشعر بعميق الاحتياجات تحت بيئات الوكلاء المفتوحة. يعبر هذا الإطار عن دور التخصص، توزيع المعلومات، وحل المهام بشكل تعاوني، مما يعزز تجربتنا في فهم طبيعة التنسيق في بيئات واسعة النطاق.

تم اختبار هذا الإطار على أرشيف MoltBook، الذي يحتوي على 2.73 مليون تفاعل بين 90,704 وكيل مستقل، مما يتيح لنا وضع مقاييس كمية لفهم التنسيق الطارئ.

تشير النتائج إلى أن هناك هيكل أساسي-محيطي واضح بمتوسط ظلال يصل إلى 0.91 وتوزيعات cascade ثقيلة بفاصل $\alpha = 2.57$. تتضمن النتائج أيضًا تكاليف تنسيق شديدة عند معالجة المهام بشكل لا مركزي، مما يعطي مؤشرًا على الحاجة إلى تحسين هذه الديناميكيات.

من خلال تقديم مهام تقييم موحدة وخطوط أساس تجريبية، يساهم هذا الإطار في تمكين مقارنة دقيقة بين بروتوكولات الوكلاء المتعددة المستقبلية ويعتبر التقييم نفسه موضوعًا للدراسة العلمية.