مع تزايد استخدام نماذج اللغات الضخمة (Large Language Models) في بيئات الذكاء الاصطناعي، تتزايد المخاطر الأمنية المرتبطة بتمكين الوكلاء المستندين إلى هذه النماذج من استدعاء الأدوات والوصول إلى الموارد المحمية. إذ يمكن لوكلاء معرّضين للخطر أن يعبثوا باستدعاءات الأدوات، أو يزوروا النتائج، أو يطلبوا أذونات تتجاوز نطاق مهامهم المحددة، مما يجعل من الصعب اكتشاف هذه الأنشطة الخبيثة.

في ضوء هذه التحديات، تسلط الدراسة الضوء على مساهمات رئيسية نحو تحقيق التفويض السلوكي المستمر (Continuous Agent Semantic Authorization - CASA). حيث تقترح نموذجًا هجينيًا يجمع بين الضوابط الحتمية والدلالية بتطبيق طبقة تقاطع ثقة صفريّة (zero-trust interception layer). هذه الطبقة تتضمن خمس ضوابط حتمية تضمن سلامة البيانات وتدفق الرسائل، بالإضافة إلى طبقة فحص دلالي تقوم بتقييم ما إذا كانت اختيارات استدعاء الأدوات تتماشى مع المهام المعنية.

ونظرًا للاهتمام الكبير بأمان الوصول القائم على المهام (Task-Based Access Control - TBAC)، تتبنى هذه الدراسة نهجًا ثنائي المراحل. المرحلة الأولى تتضمن استخراج المهام من المحادثات متعددة الجولات، بينما في المرحلة الثانية يتم مطابقة الأدوات المطلوبة مع المهام المستخرجة على مستوى خادم التفويض. هذا يمنح النظام القدرة على تقييم ما إذا كانت الأدوات المطلوبة مناسبة للأهداف المعنية.

علاوة على ذلك، قامت الدراسة بتوسيع مجموعة بيانات ASTRA التي تم تقديمها في أعمال سابقة من خلال إنتاج مجموعات بيانات جديدة تركز على المحادثات مع استدعاءات أدوات ملائمة وغير ملائمة.

أخيرًا، تقدم هذه الدراسة أول نتائج تجريبية حول TBAC في سياق المحادثات متعددة الجولات، مما يعكس أهمية هذا البحث في تعزيز الأمن والموثوقية.