أصبح الكمّ المفرط (Quantization) أمراً حيوياً في تطوير نماذج الذكاء الاصطناعي، لاسيما نماذج اللغات الضخمة (Large Language Models) التي تتطلب موارد كبيرة. ومع تقدم هذه التقنيات، تكشفت مخاطر أمان جديدة تهدد هذه النماذج، حيث قد يتسبب هجومٌ بسيط في تأثيرات خطيرة. في هذا السياق، تم تطوير هجوم جديد يمكنه اختراق النماذج المتقدمة بطريقة غير مسبوقة، وذلك من خلال استغلال ظاهرة إدخال القيم المتطرفة (Outlier Injection).

ما هو الكمّ المفرط ولماذا هو مهم؟


الكمّ المفرط هو عملية تحويل كميات كبيرة من البيانات، مثل الأوزان في نماذج الذكاء الاصطناعي، إلى حجمٍ أصغر لتسهيل نشرها وتقليل استهلاك الذاكرة. ومع ذلك، تظهر الأبحاث الأخيرة أن استخدام تقنيات الكمّ المفرط قد يؤدي إلى خلق ثغرات أمنية يمكن أن تُستغل.

الهجوم المتطور


تستخدم الأساليب الحالية تقنيات بسيطة، مما يجعلها غير فعالة ضد الأنظمة الأكثر تعقيدًا. لكن الهجوم الذي تم تقديمه في الأعمال الأخيرة يُظهر قدرة فائقة على اختراق مجموعة واسعة من أساليب الكمّ المتطورة مثل AWQ وGPTQ وGGUF I-quants. يعتمد هذا الهجوم على إدخال القيم المتطرفة في كتل الوزن الاستراتيجية، مما يؤدي إلى فقدان الوزن المستهدف وتوليد سلوكيات خبيثة.

نتائج مثيرة


تُظهر النتائج أن هذا الهجوم الجديد يمكن أن يكون فعّالًا ضد مجموعة كبيرة من الطرق، حيث حقق معدلات نجاح مرتفعة من خلال اختباراته الثلاثة. هذا الكشف يسلط الضوء على أن مخاطر الكمّ ليست مقتصرة على الأساليب البسيطة فقط، بل تؤثر أيضًا على الأساليب الأكثر تعقيدًا والخاصة بالأمان.

تدعو هذه التطورات إلى إعادة التفكير في استراتيجيات الأمان الخاصة بالنماذج، حيث يجب أن تكون الأساليب الجديدة قادرة على التصدي لهجمات خبيثة قد تكون بشكل غير مرئي.