في عالم الذكاء الاصطناعي المتطور، تُعَد أنظمة الجيل المدعوم بالت retrieval (Retrieval-Augmented Generation) إحدى الأفق الجديدة التي تعتمد عليها العديد من التطبيقات. ولكن كما هو الحال مع أي تقنية حديثة، تطرح هذه الأنظمة تحديات أمنية متزايدة.

إحدى هذه التحديات هي "الهجمات الجانبية" التي تعني تقريبًا تعرض الأنظمة للتشويش ولكن بشكل خفي. بدلاً من مواجهة هجمات صريحة تُظهر فشلًا واضحًا أو رفضًا للاستخدام، تمكنت أبحاث حديثة من تحديد نمط هجوم جديد يطلق عليه اسم "الفشل الناعم".

تقوم هذه الهجمات، التي يُشار إليها باسم هجوم التشويش التطويري المضلل (Deceptive Evolutionary Jamming Attack - DEJA)، بإنشاء مستندات معادية تهدف إلى جعل ردود الأنظمة تبدو منطقية لكنها في نفس الوقت غير مُفيدة. ويقوم هذا الإطار الهجومي باستخدام عمليات تحسين تطورية تعتمد على وسائل تقييم دقيقة تُعرف بدرجة فائدة الإجابة (Answer Utility Score - AUS) المقدمة بواسطة نماذج لغوية ضخمة (Large Language Models).

أظهرت التجارب أن DEJA يمكنه تقليل فعالية الردود إلى مستويات منخفضة، مع الحفاظ على نجاح الاسترجاع بشكل مرتفع، مما يحقق نسب فشل أعلى من 79٪. هل يمكن لهذه التكنولوجيا الجديدة أن تؤثر على كيفية استخدامنا للذكاء الاصطناعي في المستقبل؟

في النهاية، تُبرز هذه الأبحاث أهمية تأمين أنظمة الذكاء الاصطناعي ضد مثل هذه الهجمات الخفية، مما يدعو الشركات والمطورين إلى اتخاذ تدابير وقائية أكثر صرامة.