في الآونة الأخيرة، حققت نماذج اللغات المرئية (MLLMs) تقدمًا ملحوظًا في معالجة مناظير السياق الطويل بفعالية، وذلك من خلال تحويل النصوص إلى صور. ومع ذلك، تكشف الأبحاث الجديدة عن ثغرة خطيرة تكمن في هذا النموذج: حيث يتسبب انخفاض دقة الصورة في تسهيل عملية تجاوز الأمان بشكل غير متوقع.
تظهر التجارب التي أُجريت أن أنظمة الدفاع الخاصة بأفضل النماذج حاليًا (SOTA) تتدهور بشكل حاد مع انخفاض دقة الصورة، على الرغم من أن النص لا يزال قابلاً للقراءة. يُعزى ذلك إلى ظاهرة تُعرف بـ "الازدحام الإدراكي (Cognitive Overload)"، حيث يتطلب فك تشفير المدخلات ذات الجودة المنخفضة جهودًا أكبر مما ي divert الموارد الانتباهية عن تدقيق الأمان.
هذا السلوك يظهر بوضوح عبر مجموعة متنوعة من التشويشات البصرية، بما في ذلك الضوضاء والتشويش الهندسي. لمواجهة هذه المشكلة، نقترح استراتيجية بسيطة تُعرف باسم "تحميل إدراكي منظم (Structured Cognitive Offloading)"، والتي تُخفف من هذه المخاطر من خلال فرض خط سير متسلسل يفصل بين النسخ البصري وتقييم الأمان.
تعرض أعمالنا خطرًا كبيرًا في ضغط البيانات القائم على الرؤية، كما تقدم رؤى حاسمة لتصميم آمن لنماذج اللغات المرئية (MLLMs) المستقبلية.
ثغرات خطيرة: كيف تؤدي تدهور جودة الصورة إلى تخطي أمان نماذج اللغات المرئية!
يستعرض هذا البحث ثغرة رئيسية في نماذج اللغات المرئية (MLLMs) بسبب تدهور جودة الصورة، مما يسهل على المخترقين تجاوز أنظمة الأمان. النتائج تكشف عن مخاطر كبيرة تتعلق بتصميم المستقبل الآمن لهذه النماذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
