تظل مشكلة الدفاع ضد الهجمات الخلفية في نماذج اللغات الضخمة (Large Language Models) واحدة من التحديات الحاسمة في مجال الذكاء الاصطناعي. حيث إن الاستراتيجيات الحالية غالبًا ما تتطلب تكاليف تحضيرية مرتفعة أو تؤثر سلبًا على جودة النتائج بسبب عمليات التصفية المعقدة، مما يزيد من زمن الاستجابة.
لهذا السبب أُطلقت تقنية جديدة تُعرف باسم Tail-risk Intrinsic Geometric Smoothing (TIGS)، وهي تقنية دفاعية تسمح بالحماية من الهجمات الخلفية في الوقت الحقيقي دون الحاجة إلى تحديثات للمعلمات أو بيانات نظيفة خارجية. تعتمد هذه التقنية على ملاحظة تفيد بأن المحفزات الناجحة للهجمات الخلفية تؤدي إلى انهيار الانتباه المحلي ضمن منطقة المحتوى الدلالي.
تعمل TIGS من خلال إجراء فحص دقيق لمخاطر المحتوى للكشف عن رؤوس الانتباه المشتبه فيها، مستخدمةً إشارات داخلية عينة. ثم تُطبق تصحيح هندسي داخلي: حيث يحافظ تصحيح ضعيف في نطاق المحتوى على الثبات الدلالي، بينما يُ disrupt توجيه المحفزات بشكل أقوى عن طريق تقليص كامل للصف. وفي النهاية، يُعيد تدوين الصف بالكامل لإعادة بناء مصفوفة الانتباه، مما يضمن استقرار الاستدلال.
تمت دراسة فعالية هذه التقنية عبر تجارب شاملة، وقد أظهرت النتائج قدرة TIGS على تقليل معدلات نجاح الهجمات بشكل ملحوظ مع الحفاظ على جودة الاستنتاج واستمرارية الدلالات المفتوحة. والأهم من ذلك، أن توازن الأمان والجودة والزمن المطلوب ينطبق على هياكل متعددة، بما في ذلك النماذج الكثيفة ونماذج التفكير المتقدم ونماذج المزيج النادرة من الخبراء.
تعتبر TIGS معيارًا جديدًا للدفاع، حيث توفر حماية عملية وسهلة التطبيق لنماذج اللغات الضخمة المتقدمة، مما يجعلها مستقبل آمن في عالم الذكاء الاصطناعي.
الدفاع الذكي: تقنية مبتكرة لحماية نماذج اللغات الضخمة من الهجمات الخلفية
تقدم تقنية Tail-risk Intrinsic Geometric Smoothing (TIGS) دفاعًا مبتكرًا ضد الهجمات الخلفية على نماذج اللغات الضخمة دون الحاجة لتحديثات معقدة أو بيانات خارجية. تأمين فعالية الاستدلال مع الحفاظ على جودة النتائج هو هدف هذه التقنية الرائدة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
