تتزايد أهمية أنظمة الذكاء الاصطناعي متعددة الوكلاء (Multi-Agent AI Systems) في مختلف المجالات، ولكنها تأتي مع تحديات جديدة تتعلق بالأمان والتفويض. قد يكون التركيز الحالي على هجمات حقن الأوامر (Prompt Injection) غير كافٍ لفهم المخاطر الأشمل التي تواجه هذه الأنظمة.
تعاني أنظمة الذكاء الاصطناعي متعددة الوكلاء من مشكلة فريدة تتعلق بنقل التفويض (Authorization Propagation)، حيث تتداخل الهويات غير البشرية في الوصول إلى البيانات وتفويض المهام وتوليف النتائج عبر حدود متغيرة.
تم تحديد المشكلة كمسألة تتعلق بالسير العمل (Workflow-Level Property)، حيث يتم تقسيمها إلى ثلاثة مسائل فرعية: التفويض الانتقالي (Transitive Delegation)، استنتاج التجميع (Aggregation Inference)، وصلاحية الزمن (Temporal Validity). وكذلك تم تقديم متطلبات هيكلية سبعة يجب أن تتوفر في بنى التفويض لأنظمة الذكاء الاصطناعي متعددة الوكلاء.
يظهر البحث أن الحلول التقليدية مثل نماذج التحكم في الوصول (RBAC، ABAC، ReBAC) ليست كافية، ويجب تناول إدارة الهوية (Identity Governance) كعنصر أساسي في جميع التفاعلات. هذا يعني أنه يجب تقييمها باستمرار، وتطبيقها عند كل نقطة تفاعل، وتصميمها ضمن النظام قبل السماح لأي منطق تنسيقي بالتوسع.
تشير الأدلة الأولية المستمدة من منصات الذكاء الاصطناعي المؤسسية إلى أن التصرفات العادية للنظام، وليس فقط التصرفات العدائية، يمكن أن تؤدي إلى الفشل المتوقع لهذا النموذج. يجب أن يكون تفاعل المطورين مع هذه التحديات ذا أهمية قصوى لضمان سلامة وأمان الأنظمة المستقبلية.
في ضوء هذه التحديات، ما رأيكم في أهمية تخطي العقبات المحيطة بالذكاء الاصطناعي متعدد الوكلاء؟ شاركونا آرائكم في التعليقات.
تحديات جديدة في أنظمة الذكاء الاصطناعي متعددة الوكلاء: التحكم في الهوية كركيزة أساسية
يستكشف بحث جديد مسألة مهمة في أنظمة الذكاء الاصطناعي متعددة الوكلاء تتعلق بنقل التفويض وكيفية الحفاظ على معايير الأمان. يتطلب الأمر معالجة هذه القضايا لتفادي فشل النظام في حالات الاستخدام العادية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
