في ظل تقدم نماذج اللغات الكبيرة (Large Language Models) مفتوحة المصدر، يبرز تساؤل مهم حول الأمن الإلكتروني لهذه النماذج. قدّم الباحثون في ورقة حديثة أدوات جديدة تحت اسم MEASER، وهي تقنية تهدف لاختراق هذه النماذج من خلال هجمات إدراج البرمجيات الخبيثة (Malware Embedding Attacks).
تستفيد هذه النماذج المفتوحة من الشفافية التي تتيحها مشاركة التعليمات البرمجية وتوجيهات النموذج، ولكنها في ذات الوقت قد تصبح عرضة لهجمات خبيثة، مما يُشكل خطرًا على البيانات والأداء. يبرز البحث كيف يقوم المهاجمون باستخدام المعرفة الداخلية لتضمين حمولات معينة أثناء مشاركة النموذج، مما يؤدي إلى آثار غير متوقعة.
يعتبر MEASER الابتكار الأول في هذا المجال، حيث يُعزز من قوة الهجمات من خلال تحديد المعلمات المستهدفة وتضمين حمولات وتحفيز عمليات تنفيذ الحمولات تسلسليًا. تُستخدم تقنية متطورة تُعرف باسم تعديل مؤشر الكمية النسبية (Magnitude-Adaptive Relative Quantization Index Modulation) لتعزيز فعالية الهجمات ضد النماذج المُعدلة.
تظهر التجارب المُكثفة التي تم إجراؤها على أربع نماذج شهيرة مفتوحة المصدر أن MEASER يتفوق بالتأكيد في مستوى التخفي ويحقق معدل خطأ صفري (0 bit error rate) في جميع الإعدادات. يُوصي الباحثون بأهمية البحث في وسائل مواجهة هذه الهجمات نظرًا لفعاليتها العالية ومدى تأثيرها على نماذج الذكاء الاصطناعي.
كيف تقيمون تقدم MEASER وتأثيره على أمان نماذج الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات!
MEASER: هجوم خبيث يهدد نماذج الذكاء الاصطناعي مفتوحة المصدر!
تكشف الدراسة الجديدة عن تهديد هجمات إدراج البرمجيات الخبيثة (MEAs) على نماذج اللغات الكبيرة مفتوحة المصدر، مما يثير تساؤلات حول أمان هذه التقنيات. تم تطوير أداة جديدة باسم MEASER لتعزيز فعالية هذه الهجمات بشكل مثير.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
