تظهر أنظمة الذكاء الاصطناعي الوكالية، وخاصة تلك المدفوعة بنماذج اللغات الضخمة (LLM)، تهديدات جديدة تتعلق بأمان البيانات. هذه الأنظمة ليست مجرد نماذج تعمل بشكل مستقل، بل تقوم بتخطيط المهام وتفويضها إلى وكلاء آخرين وتحتفظ بسجل ذاكرة دائم مما يفتح المجال لعدة تهديدات مثل حقن الأوامر وسرقة البيانات الحساسة.

تتضمن التهديدات التي تواجه هذه الأنظمة سيناريوهات مثل تسرب المعلومات وحقن التعليمات، مما يعرض المعلومات الحساسة للخطر. لتوفير المزيد من الأمان، تقدم الحوسبة السرية (Confidential Computing) حلاً جذرًا مستخدمًا بيئات تنفيذ موثوقة (Trusted Execution Environments - TEEs) تفصل بين الشيفرات والبيانات عن البرمجيات ذات الامتيازات العالية.

تسعى هذه المقالة إلى استكشاف تصميمات الحوسبة السرية في أربعة أجزاء رئيسية: أولاً، تصنيف موحد لستة منصات TEE تشمل (Intel SGX، Intel TDX، AMD SEV-SNP، ARM TrustZone، ARM CCA، وNVIDIA H100 CC)، حيث يتم تغطية أدوار النشر وأوجه التبادل بين الأداء. ثانياً، نموذج تهديد مركزي للوكالات يمتد عبر عدة طبقات مثل الإدراك والتخطيط والذاكرة والإجراءات. ثالثاً، استعراض مقارن للدفاعات المستندة إلى الحوسبة السرية، مفصلاً كيف تختلف النتائج من استنتاجات فردية إلى احتياجات تتطلب تصاميم جديدة تكاملية. وأخيراً، ستة تحديات مفتوحة تتضمن ضمانات معقدة لسلاسل الوكلاء متعددة الخطوات وأداء GPU-TEE على نطاق نماذج اللغات الضخمة.

بينما يبدو أن بعض بدائل الثقة المادية ناضجة بما يكفي للانتشار المستهدف، إلا أنه لا توجد بعد إطار شامل ينظم هذه المكونات في طبقة أمنية متماسكة لإنتاج الوكالات الذكية.
ما رأيكم في هذه التطورات؟ شاركونا في التعليقات.