في قلب التطورات الحديثة في مجال الذكاء الاصطناعي، يأتي الابتكار المثير الذي يحمل اسم 'كود نايم'، وهو جدار ناري سلوكي مُصمم خصيصًا لحماية وكالات الذكاء الاصطناعي التي تعمل ضمن بيئات حساسة. تعتمد هذه التقنية على نماذج لغوية كبيرة (Large Language Models) لتنفيذ استدعاءات أدوات معقدة، ولكن هذه العمليات تواجه تحديات كبيرة تتعلق بالأمان.

مع تزايد الهجمات السيبرانية، يبدو من الضروري وجود حلول فعالة لرصد الأنشطة الضارة. وتعمل تقنية 'كود نايم' كنظام للكشف عن السلوكيات الشاذة، حيث تستند إلى نماذج تم التحقق منها لتجميع بيانات الاستخدام المسموح به، وهو ما يعرف بالنماذج الحتمية المنتهية المعلمة (parameterized deterministic finite automaton - pDFA). من خلال تحديد تسلسلات معينة من الاستدعاءات وإطاراتها السياقية، يمكن للجهاز ضمان سلامة العدوانيات.

عند تقييم أداء 'كود نايم' في مختبر أمان الوكلاء (Agent Security Bench - ASB)، حقق معدل نجاح هجومي (Attack Success Rate - ASR) منخفض قدره 5.6% عبر خمسة سيناريوهات مختلفة، إلا أن هذا المعدل انخفض إلى 2.2% في ثلاث تدفقات هيكلية متتالية، وهو ما يجعله أفضل بكثير من نظام 'أيغيس' المتطور الذي سجل معدل نجاح هجوم يصل إلى 12.8%.

ليس ذلك فحسب، بل إن 'كود نايم' نجح في أداء مذهل حيث لم يسجل أي فشل في الهجمات متعددة الخطوات أو الهجمات الاعتمادية السياقية في الإعدادات الهيكلية. ومع مواجهة 1,000 من بيانات الاختراق الخبيثة، نجح النظام في التعرف على 1.4% فقط تتوافق مع المسارات الهيكلية الصحيحة والتي فشلت جميعها أمام حراس المعلمات، مما يظهر كفاءة النظام في حماية نفسه.

تستحق الإشارة أيضًا إلى أن 'كود نايم' يضيف تأخيرًا قدره 2.2 مللي ثانية لكل استدعاء، وبسرعة ثلاثة أضعاف مقارنةً بـ'أيغيس'، مع معدل فشل في المهام المشروعة يبلغ 2.0%. على الرغم من ذلك، لا تزال الحدود المستمرة للمعلمات غير المدارة عرضة للهجمات من نوع استبدال المرادفات.

في النهاية، يبقى التأمين الفعال للمعلمات الحساسة والاعتماد على القوائم البيضاء هو العبء الدفاعي النهائي ضد تنفيذ الهجمات. فهل تعتقد أن جدران الحماية السلوكية هي مستقبل الأمان في الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات.