تشهد أنظمة الذكاء الاصطناعي تحولًا مهمًا نحو نظم الوكلاء المتعددة (Multi-Agent Systems) لتحسين التعامل مع الأعمال المعقدة. لكن البحث الجديد يقدّم تحديًا نظريًا، حيث يُظهر أن الانسجام الداخلي داخل تلك النظم قد يأتي على حساب الوصول إلى الحقيقة.

في هذا الإطار، تم تعريف ظاهرة جديدة تُعرف باسم 'تناقض التوافق' (Consensus Paradox)، والتي تشير إلى أن التجمعات الوكيلية تفضّل اتفاقها المعماري الداخلي بدلاً من البحث عن الحقيقة المنطقية الخارجية. وذلك ما تم إثباته من خلال 36 تجربة شاملة تضمنت 12,804 مسار، باستخدام ثلاث نماذج مرجعية حديثة (SOTA) هي GAIA وMulti-Challenge وSWE-bench.

ومن خلال هذه الأبحاث، تم استنتاج 'قانون الحكمة العكسية' (Inverse-Wisdom Law)، والذي يؤكد أنه في التجمعات القائمة على القرابة، يؤدي إضافة وكلاء منطقيين إلى زيادة استقرار المسارات غير الصحيحة بدلاً من تعزيز احتمالية الوصول إلى الحقيقة. بالإضافة إلى ذلك، تبين أن التفاعلات بين 3 من أنظمة النماذج المتقدمة (Gemini 3.1 Pro وClaude Sonnet 4.6 وGPT-5.4) تكشف عن عدم توازن قبلي في المعمارية، والذي يُعتبر قانونًا ميكانيكيًا يحدد فشل التجمعات.

أخيرًا، يُعرف معامل القبيلة (Tribalism Coefficient) ووزن المنافقين (Sycophantic Weight) كسلسلة عوامل أساسية تؤثر على فشل النظام، بينما تُعزز 'ضرورة التباين' (Heterogeneity Mandate) كشرط أساسي لتصميم معماري مرن وموثوق. إن هذا البحث يفتح أفقًا جديدًا تمامًا لفهم الديناميكيات المعقدة ضمن أنظمة الوكلاء المتعددة ويثير تساؤلات حول كيفية تصميم هياكل فعالة تضمن التوازن بين التعاون والوصول إلى الحقيقة.