في عالم الذكاء الاصطناعي، تبرز مشكلة هجمات السموم المدعومة (Poisoning-based backdoor attacks) كتحدٍ كبير للأمن، مما يتطلب تطوير أساليب دفاعية فعالة. تكمن كلمة السر في تقنية جديدة تُعرف باسم Cluster Segregation Concealment (CSC)، والتي تهدف إلى تحسين دقة النماذج وبنفس الوقت تمييز العوامل الضارة.

تقوم هجمات السموم على تضمين محفزات (Triggers) في بيانات التدريب، مما يؤدي إلى تصنيف خاطئ للمدخلات المتحكم بها لمؤشرات محددة مسبقاً من المهاجم، في حين تبقي على أداء جيد عند التعامل مع بيانات نظيفة. لكن، للأسف، غالبًا ما تعاني الدفاعات المعتمدة على تقييد السم من ضعف في الكشف أمام بعض أنواع الهجمات، مما قد يُعرّض دقة النموذج للخطر.

ركزت الدراسة الأخيرة على تحليل ديناميكيات هجمات الخلفية خلال عملية تدريب النموذج، وكشفت أن العينات المسمومة تتشكل في مجموعات معزولة في الفضاء الكامن في المراحل المبكرة، مع كون المحفزات ميزات بارزة متميزة عن العوامل العادية. استنادًا إلى هذه الرؤى، يقدم الباحثون تقنية CSC التي تبدأ بتدريب شبكة عصبية عميقة من خلال التعلم المراقب التقليدي، مع العمل على عزل العينات المسمومة.

تتضمن العملية إجراء استخراج ميزات من البيانات في المراحل الأولى، استخدام خوارزمية تجميع DBSCAN، وتحديد المجموعات الشاذة اعتمادًا على تنوع الصفوف ومقاييس الكثافة. ثم في المرحلة الثانية من التخفي، يتم إعادة تصنيف العينات المسمومة إلى فئة افتراضية، ويتم تحسين مصنف النموذج باستخدام خسارة الانتروبيا المتقاطعة لاستبدال الارتباطات الضارة برابط افتراضي جيد.

عند تقييم CSC على أربعة مجموعات بيانات معيارية ضد اثني عشر هجومًا معتمدًا على السموم، أظهرت التقنية أداءً متفوقًا، حيث خفضت متوسط معدلات نجاح الهجمات إلى ما يقرب من الصفر مع الحد الأدنى من فقدان الدقة في العينة النظيفة. من حيث المساهمة، تشمل تحديد أنماط خلفية قوية، آلية تخفي فعالة، والتحقق التجريبي العالي.

مع هذه التطورات، يبدو أن CSC ستسهم في تعزيز الثقة في الذكاء الاصطناعي وتوفير أمن أفضل للنماذج العميقة.