في عالم نماذج اللغات الضخمة (LLMs)، حيث تُظهر هذه التقنيات أداءً مذهلاً في مجموعة متنوعة من المهام، تظل قضايا الهلوسة (Hallucinations) تمثل تحديًا كبيرًا. تمثل الهلوسة أخطاءً تحدث عندما تنتج الأنظمة استجابات غير دقيقة أو غير منطقية رغم أنها تبدو منطقية. ولعل الحاجة واضحة لتطوير هجمات واقعية قادرة على استثارة هذه الأخطاء.

تتزايد الحاجة إلى استراتيجيات هجومية أكثر تفاعلية، وهنا يأتي دور إطار العمل الجديد المعروف باسم REALISTA. يسعى هذا الإطار إلى تفكيك مفهوم الهلوسة من خلال صوغ المشكلة كمسألة تحسين مقيدة، حيث يتمثل الهدف في العثور على حوافز عدائية (Adversarial Prompts) تتسم بالتناسق الدلالي وتعادل تلك المستخدمة من قبل المستخدمين العاديين.

تشير الأساليب الحالية إلى محدوديتها؛ حيث تركز الهجمات المعتمدة على الموجهات المنفصلة (Discrete Prompt-based Attacks) على مجموعة محدودة من التغيرات، بينما تستكشف الهجمات المستندة إلى الفضاء اللاتيني (Latent-space Attacks) مساحة أغنى لكنها تنتهي في بعض الأحيان إلى مخرجات غير صالحة.

REALISTA يتخطى هذه العوائق من خلال إنشاء قاموس يعتمد على المدخلات يحتوي على اتجاهات تحرير صالحة، مما يتيح له تحسين التركيبات المستمرة لهذه الاتجاهات في الفضاء اللاتيني. هذه الطريقة تجمع بين مرونة تحسين الهجمات المستمرة وواقعية إعادة الصياغة المعتمدة على الموجهات المنفصلة.

أظهرت التجارب أن REALISTA يحقق أداءً متفوقًا أو متكافئًا مقارنة بأحدث الهجمات الواقعية على نماذج اللغات الضخمة، ونجح بشكل خاص في الهجوم على النماذج الكبيرة ضمن بيئات استجابة حرة، حيث فشلت الهجمات الواقعية السابقة.

لمزيد من التفاصيل حول هذا البحث، يمكنكم زيارة الكود المصدري المتوفر على GitHub: [REALISTA](https://github.com/Buyun-Liang/REALISTA). ما رأيكم في هذه التطورات المثيرة في مجال الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات.