في عالم الذكاء الاصطناعي، تشكِّل المجموعات من الوكلاء التفاعليين تحالفات يمكن أن تُنتج تنظيمات جماعية ناشئة تُعتبر مهمة جداً لسلامة الذكاء الاصطناعي وتوافقه مع الأهداف. ورغم ذلك، فإن الاكتفاء بمراقبة سلوك الوكلاء وحده قد لا يكفي لتمييز التداخل المعلوماتي الحقيقي عن الشبهات المُزيفة، حيث قد تتشكل التحالفات المؤثرة على مستوى التمثيلات الداخلية قبل أن يظهر أي تغيير واضح في السلوك.

في هذا السياق، يقدِّم الباحثون طريقة عملية لكشف هيكل التحالفات من التمثيلات العصبية الداخلية لأنظمة الوكلاء المتعددة. هذه الطريقة تقوم ببناء رسم بياني للعلاقة المتبادلة بين المعلومات من الحالات الخفية للوكلاء، وتطبق طريقة التقسيم الطيفي (Spectral Partitioning) لتحديد الحدود الأكثر وضوحاً للتحالفات.

تم التحقق من هذه الطريقة في مجالين مختلفين. أولاً، في بيئات التعلم المعزز متعدد الوكلاء، نجحت الطريقة في استعادة هياكل التحالفات الديناميكية والهرمية المبرمَجة، وقامت برفض النتائج الكاذبة الناتجة عن التنسيق السلوكي دون وجود تداخل معلوماتي. ثانياً، باستخدام نموذج لغوي كبير (Large Language Model)، حددت الطريقة هياكل التحالفات المستنتجة من الإدخالات الوصفية، وتبعت عمليات إعادة توزيع الفرق الديناميكية، وكشفت عن تسلسل هرمي تمثيلي حيث تسود التسميات الصريحة على أنماط التفاعل المتضاربة.

توفر نتائج هذه الدراسة دليلاً على أن تحليل المعلومات المتبادلة للحالات الخفية من خلال التقسيم الطيفي يُعتبر أداة تشخيصية قابلة للتوسع لتحديد التحالفات التمثيلية، مما يتيح وسيلة قيمة لمراقبة الهيكليات الناشئة في أنظمة الذكاء الاصطناعي الموزعة.
هل تعتقد أن هذه الطريقة ستغير الطريقة التي نراقب بها التحالفات في نظم الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات!