في عالم الذكاء الاصطناعي، تظهر نماذج الرؤية واللغة (Vision-Language Models) كأحد التطورات الأكثر إبداعاً. لكن، هل تعلمون أن هناك ثغرات أمنية خطيرة يمكن استغلالها؟ دراسة حديثة أطلقت جرس الإنذار عن وجود أربع هجمات تطورت لهذه النماذج، تكشف عن جوانب غير مكتشفة في الأمان.

تتمحور الهجمات الأربعة حول كيفية تجاوز إجراءات الأمان باستخدام العناصر البصرية. إليكم أبرزها:

1. **تشفير التعليمات الضارة** كرموز بصرية مع توضيح مفصّل لتلك الرموز.
2. **استبدال الأجسام الضارة** بأخرى غير ضارة، مثل تحويل القنابل إلى موز، ثم طرح استفسارات ضارة باستخدام المصطلح البديل.
3. **تعديل النصوص الضارة** في الصور، مثل أغلفة الكتب، بكلمات غير ضارة مع الحفاظ على المعنى الأصلي للمحتوى.
4. **الألغاز البصرية** التي تتطلب استنتاج مفهوم محظور لحل اللغز.

وفقاً للدراسة، تكلّلت محاولات الهجوم البصرية بمعدل نجاح بلغ 40.9% على نموذج Claude-Haiku-4.5، مقارنة بنسبة 10.7% فقط للاعتماد على التشفيرات النصية.

تسلط هذه النتائج الضوء على فجوة بين تدريب الأمان القائم على النصوص والتهديدات التي تُعرض بصرياً. لذلك، يتضح أن التعامل مع الرؤية كهدف أساسي في تطوير نماذج الذكاء الاصطناعي ضرورة ملحة. فهل نحن جاهزون لمواجهة هذه التحديات الجديدة؟