في عصر الذكاء الاصطناعي ونموذج اللغة الضخم، يواجه الباحثون تحديات جديدة تتعلق بالأمان والمخاطر المحتملة. واحدة من أبرز هذه المخاطر هي ما يُعرف بـ 'الهجوم الجليدي' (PermaFrost-Attack)، والذي يكشف عن راتب جديد في عالم التهديدات السيبرانية.
فكرة هذا الهجوم تعتمد على تقنية تُعرف باسم زراعة التهيئة الخفية (Stealth Pretraining Seeding) حيث يقوم المهاجمون بتوزيع محتوى مُسمم عبر مواقع خفية ويدفعونه للظهور أمام زواحف الويب، مما يزيد من احتمالية امتصاص نماذج اللغة الضخمة لهذا المحتوى أثناء تدريبها. هذا الهجوم يُعتبر صعب الاكتشاف، لأن كل جزء من المحتوى المُسمم صغير، منتشر، ويبدو غير ضار.
وعندما يتم تجميع هذه الأجزاء المُسممة، يمكن أن تؤدي إلى نوع من التسمم الخفي: ألغام منطقية مُدمجة أثناء التدريب تبقى لاحقًا غير مرئية خلال التقييمات القياسية. يمكن تنشيط هذه الألغام بعد ذلك من خلال خيارات محفزة دقيقة، مما يجعلها تهديدًا حقيقيًا.
يعتبر البحث أنه مع هذا الهجوم، سيظل تصحيح الأمان وتفاصيل التوجه نحو الأمان في نماذج الذكاء الاصطناعي معقدًا. تتضمن الأساليب المستخدمة في هذا الهجوم أيضًا تشخيصات هندسية جديدة كليًا، مثل الطول الحراري (Thermodynamic Length) والانحناء الطيفي (Spectral Curvature).
بغض النظر عن النموذج المستخدم، تظهر نتائج هذا البحث أن زراعة التهيئة الخفية تهديد عملي ومهم يجب أن يُعطى الاهتمام الكافي لضمان الأمن المستقبلي لهذه النماذج. إن إدراك هذه التهديدات سيمكننا من تطوير استراتيجيات للدفاع أمام هذه الأنماط المتطورة من الهجمات.
ما هو رأيك في هذا الهجوم الخفي؟ هل ترى أن نماذج الذكاء الاصطناعي بحاجة لتقنيات أمان جديدة لحمايتها من هذه التهديدات؟ شاركونا آرائكم في التعليقات!
الهجوم الجليدي: أساليب خفية لزراعة الألغام المنطقية أثناء تدريب نماذج اللغة الضخمة!
الكشف عن تهديد جديد يُعرف بـ 'الهجوم الجليدي'، والذي يتيح للمهاجمين زرع محتوى ضار في نماذج اللغة الضخمة بشكل يصعب اكتشافه. هذه التقنية تُعد النسخة القادمة من التلاعب بالأمن في الذكاء الاصطناعي.!
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
