في عالم الذكاء الاصطناعي، تُعد أنظمة الذكاء الاصطناعي متعددة الوسائط متعددة الوكلاء (MM-MAS) من الأدوات المفيدة التي تتيح التفاعل والتنسيق بين وكالات ذكاء اصطناعي متعددة. لكن مع تزايد قدراتها وتوسع نطاقها، أظهرت الأبحاث الجديدة أنها عرضة لهجمات هرمية معقدة تهدف إلى كشف الثغرات واستغلالها.

في هذا السياق، تم تقديم إطار عمل جديد يُدعى HAM³، والذي يُعد حلاً فعالاً لتحليل هذه الأنظمة. يقوم HAM³ بتفكيك الهجمات إلى ثلاث طبقات مترابطة:

1. **طبقة الإدراك (Perception Layer)**: حيث تنفذ الهجمات من خلال تعديل المدخلات البصرية والنصية، بالإضافة إلى تمثيلاتهما المدمجة.
2. **طبقة الاتصال (Communication Layer)**: تتضمن الهجمات على مستوى الاتصال، حيث يتم تشويه محتوى الرسائل وهيكل التفاعلات بين الوكلاء.
3. **طبقة التفكير (Reasoning Layer)**: تتعمل الهجمات في هذه الطبقة على التأثير على سير عملية التفكير لدى كل وكيل، مما يؤدي إلى انحراف في مسارات التفكير والقرارات النهائية.

أُجريت اختبارات على الإطار الجديد باستخدام معيار GQA، وقد أظهرت النتائج أن HAM³ حقق معدل نجاح هجمات يصل إلى 78.3%، حيث كانت الهجمات في طبقة التفكير هي الأكثر فعالية. كما أن أكثر من نصف الهجمات الناجحة أدت إلى ارتكاب عدة وكلاء لأخطاء متسقة مما يزيد من أهمية الدراسة.

هذه النتائج تُبرز ضرورة تعزيز أمان أنظمة MM-MAS وتقديم فهم أعمق لكيفية بناء أنظمة ذكاء اصطناعي متعددة الوكلاء تكون أكثر قوة وقابلية للتفسير.