في عالم الذكاء الاصطناعي (AI)، بدأ الوكلاء الذكيون في التفاعل المباشر مع بعضهم البعض عبر منصات الإنترنت والبيئات المادية، مما يؤدي إلى ظهور تحديات أمنية جديدة تتجاوز الأطر التقليدية للأمن السيبراني وسلامة الذكاء الاصطناعي. تعتبر البروتوكولات الحرة ضرورية لتعميم مهام الذكاء الاصطناعي، لكنها تفتح أيضاً المجال لتهديدات جديدة مثل التحالفات السرية والهجمات التعاونية.

يمكن أن تؤدي تأثيرات الشبكة إلى انتشار سريع لانتهاكات الخصوصية، والتضليل، وهجمات استهداف البيانات، فيما يساعد انتشار الوكلاء الذكيين والتحسين الخفي المعتدين على التهرب من المراقبة، مما يُنشئ تهديدات جديدة دائمة على مستوى النظام. ورغم الأهمية الحاسمة لهذه التحديات الأمنية، إلا أنها تظل قيد الدراسة المحدودة، حيث تفرقت الأبحاث عبر مجالات متعددة تشمل أمن الذكاء الاصطناعي، وتعلم الوكلاء المتعددين، والأنظمة المعقدة، والأمن السيبراني، ونظرية الألعاب، والأنظمة الموزعة، وإدارة الذكاء الاصطناعي التقنية.

نقدم مفهوم أمن الوكلاء المتعددين كحقل جديد يهدف إلى تأمين شبكات الوكلاء الذكيين ضد التهديدات التي تنشأ أو تتعزز من خلال تفاعلاتهم - سواء بشكل مباشر أو غير مباشر عبر البيئات المشتركة - مع بعضهم البعض، ومع البشر، والمؤسسات. كما نحدد التوازنات الأساسية بين الأمن والفائدة، وأيضاً بين الأمن والأمن في البيئات الموزعة واللامركزية.

تشمل أعمالنا الأولية (1) تصنيف مشهد التهديدات الناتجة عن تفاعل الوكلاء الذكيين، (2) تقديم تطبيقات لأمن الوكلاء المتعددين للدراسات عبر مجالات متفرقة، و(3) اقتراح جدول أبحاث موحد لمعالجة التحديات المفتوحة في تصميم أنظمة الوكلاء الآمنة وبيئات التفاعل. من خلال تحديد هذه الفجوات، نهدف إلى توجيه الأبحاث في هذا المجال الحساس لفتح الإمكانات الاقتصادية والاجتماعية للتوسع الواسع لوكلاء الذكاء الاصطناعي، وتعزيز الثقة العامة، وتقليل مخاطر الأمن القومي في البنية التحتية الحيوية وسياقات الدفاع.