في عالم متسارع التكنولوجيا، أصبح ضغط الصور المدروس (Learned Image Compression) واحداً من أكثر المجالات إثارة للاهتمام، حيث يتم الاعتماد على الشبكات العصبية العميقة (Deep Neural Networks) لتحويل الصور عالية الأبعاد إلى تمثيلات مضغوطة، مما يقلل من الفائض ويحقق أداءً متميزاً في معدل التشويه. ومع ذلك، تعاني هذه الأنظمة من ضعف inherent يتيح لها أن تكون عرضة للتلاعبات المعادية، مما يؤدي إلى تدهور الأداء وتضاؤل نسبة الضغط.

تحدث الدراسة التي تم نشرها في أرشيف arXiv عن ظاهرة جديدة تُعرف باسم التلاعب الدلالي منخفض الدقة (Low-Resolution Global Semantic Manipulation) وتأثيره على أنظمة ضغط الصور المدروسة، حيث أن التلاعبات التي تتم في مجالات دلالية محلية (Local Semantic Manipulation) غالباً ما تفسد جودة الصورة. وللأسف، فإن التلاعب بالدلالات العالمية عالية الدقة (High-Resolution Global Semantic Manipulation) لم يُستكشف حتى الآن، نظراً لتحدياته الكبيرة.

تشير النتائج إلى أن طرق الهجوم الحالية مثل أسلوب الانحدار التدريجي (Project Gradient Descent) تحقق نجاحاً ملحوظاً في مهام التصنيف والتجزئة، لكنها تفشل في التعميم في حالات التلاعب عالي الدقة.

للحد من هذا الضعف، يقترح الباحثون جدولة انخفاض هندسي دوري (Periodic Geometric Decay schedule) تمكنها من تحقيق تلاعب دلالي عالي الدقة ضمن حدود محددة. وتجربة ازدواجية (PGD$^{2}$-GSM) الجديدة أثبتت أنها الأولى من نوعها في تحقيق نجاح واستقرار في التلاعبات عالية الدقة.

إن هذه الاكتشافات ليست مجرد نتائج أكاديمية بل إنها تبرز تهديدات جديدة وتحديات على أنظمة ضغط الصور المدروسة، مما يضيف بعداً جديداً لبحث آمن ومستدام في مجال الذكاء الاصطناعي.