شهدت التفاعلات المدعومة بالذكاء الاصطناعي تحولاً مثيراً من أدوات تجريبية بسيطة إلى أنظمة متطورة تعتمد على نماذج لغوية ضخمة (LLMs) تُشابه العمليات الإنسانية على واجهات المستخدم الرسومية. في ضوء هذا التطور، بدأنا نشهد بروز وكالات الحاسوب (Computer-Using Agents)، التي تتمتع بقدرة تحاكي البشر في أداء المهام تلقائيًا، بدءًا من التنقل بين تطبيقات سطح المكتب إلى تصفح صفحات الويب والتطبيقات المحمولة.

ومع ذلك، فإن زيادة قدرة هذه الوكالات تترافق مع مخاطر جديدة تتعلق بالأمن والسلامة. تتضمن هذه التهديدات مواطن الضعف الناجمة عن عمليات الاستدلال المدعومة بنماذج لغوية ضخمة، بالإضافة إلى التعقيدات الناتجة عن دمج العديد من مكونات البرمجيات والمدخلات متعددة الوسائط.

في هذه الورقة البحثية، تم إجراء تنظيم شامل للمعرفة حول التهديدات السلامة والأمن لوكالات الحاسوب. وقد قمنا بمراجعة الأدبيات بشكل معمق واستخلصنا النتائج وفقًا لأربعة أهداف بحثية رئيسية:
1. تحديد وكالة الحاسوب المناسبة للتحليل الأمني;
2. تصنيف التهديدات الحالية المتعلقة بالسلامة في وكالات الحاسوب;
3. اقتراح تصنيف شامل لاستراتيجيات الدفاع المتاحة;
4. تلخيص المعايير السائدة، والمجموعات البيانية، وقياسات التقييم المستخدمة لتقييم سلامة وأداء هذه الوكالات.

بناءً على هذه الرؤى، يوفر عملنا أساسًا مُنظمًا للباحثين في المستقبل لاستكشاف الثغرات التي لم يتم التطرق إليها، ويقدم إرشادات عملية للممارسين في تصميم وتطبيق وكالات حاسوب آمنة. هل أنتم مستعدون لاستكشاف مستقبل هذه التقنية؟ شاركونا آراءكم في التعليقات.