في عصر الذكاء الاصطناعي، تتزايد المخاوف حول الخصوصية والأمان بشكل متزايد، خاصةً مع استخدام أنظمة استرجاع المعلومات المعززة (RAG). تعتمد هذه الأنظمة على نماذج لغوية ضخمة (LLMs) التي تستعين بمعلومات خارجية لتحسين دقة استجابتها. ومع ذلك، تكمن المشكلة في أن البيانات التي يتم استرجاعها يمكن أن تصبح أصولًا حساسة، مما يفتح المجال أمام هجمات استدلال العضوية.

تُعرف هذه الهجمات بمهاجمي 'الصندوق الأسود'، حيث يمكن للخصم استنتاج ما إذا كان مستند معين موجودًا في قاعدة بيانات المعرفة الخاصة بنظام RAG من خلال تفاعلات استجابة الاستعلام. هذا يمثل مخاطر جسيمة على محتويات أي قاعدة بيانات، حيث يمكن للخصم كشف تغطية الوثائق ووجود مواضيع حساسة.

في هذا الإطار، يُقدم الباحثون تقنية جديدة تُعرف باسم E-MIA، تهدف إلى تغيير قواعد اللعبة في عالم الأمان التكنولوجي. تعتمد هذه التقنية على تحويل الأدلة القابلة للتحقق من الوثيقة المستهدفة إلى اختبار مكون من أربعة أنواع من الأسئلة (FB/SC/MC/T/F)، مما يتيح للمهاجم قياس عضوية الوثيقة بطريقة أكثر دقة.

أظهرت التجارب عبر مجموعات بيانات متعددة وتكوينات RAG متنوعة أن E-MIA يُحسن من فصل العضوية وغير العضوية في بيئات صارمة، وفي الوقت نفسه يحافظ على استفسارات طبيعية وهادئة. بالإضافة إلى ذلك، تم تحليل تأثير تكوين الأسئلة وطول الاختبار على فعالية الهجوم.

هذا البحث يفتح آفاقًا جديدة لفهم الأمن السيبراني في عالم الذكاء الاصطناعي، ويدعو المجتمع الأكاديمي والصناعي إلى التفكير في استراتيجيات جديدة للحفاظ على الخصوصية والأمان.