في عالم الذكاء الاصطناعي المتقدم، بدأت تثير نماذج الذكاء الاصطناعي الوكيلة (Agentic AI) اهتمامًا واسعًا بفضل قدرتها على استدعاء وظائف خارجية. هذه النماذج تتمتع بقدرات محسنة ولكنها تأتي مع تهديدات جديدة. في دراسة حديثة، تم تقديم هجوم اختراق الوظائف (Function Hijacking Attack) الذي يكشف النقاب عن كيفية استغلال هذه النماذج من قبل المخترقين.
تسلط البحث الضوء على كيفية تعرض النماذج اللغوية الضخمة (Large Language Models) للاختراق من خلال هجمات تحريف وتحويل، حيث تمكن المهاجمون من التحكم في عملية اختيار الأدوات المستخدمة في النماذج، مما يؤدي إلى استدعاء وظائف معينة حسب رغبتهم. بينما تركز الهجمات الحالية على تفضيلات النموذج، اكتشفنا أن هجوم اختراق الوظائف يمكن أن يعمل بشكل مستقل عن معاني السياق مما يجعله قابلاً للتطبيق عبر مجالات متنوعة.
تم اختبار هذا الهجوم على خمسة نماذج مختلفة، حيث حققنا معدل نجاح يتراوح بين 70% إلى 100% على مجموعة بيانات BFCL المعتمدة. هذه النتائج تؤكد الحاجة إلى تدابير أمان قوية وأنظمة حماية للنماذج الوكيلة.
إنها دعوة للباحثين والمطورين لاستكشاف سبل تعزيز الأمان في هذه الأنظمة المتطورة، فهل ستصبح النماذج الوكيلة ضحية لهجمات جديدة في المستقبل؟
ما رأيكم في هذا التطور؟ شاركونا في التعليقات!
هجوم اختراق الوظائف: تهديدات جديدة للنماذج اللغوية الوكيلة!
يستعرض بحث جديد تهديدات غير مسبوقة لنماذج الذكاء الاصطناعي الوكيلة من خلال هجمات اختراق الوظائف. النتائج تدعو إلى تطوير أمان أقوى لهذه الأنظمة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
