في عالم الذكاء الاصطناعي، تعد قدرة المحسنات على التكيف مع صعوبات التدريب واحدة من التحديات الكبرى التي تواجه الباحثين. حيث كانت المحسنات التكيفية مثل Adam قد حققت نجاحات بارزة في تدريب النماذج الحديثة، بما في ذلك نماذج اللغات الضخمة (Large Language Models) ونماذج الانتشار (Diffusion Models). ومع ذلك، تعاني هذه المحسنات في بعض الأحيان من أداء أضعف مقارنة بالطرق غير التكيفية مثل خوارزمية SGD، خاصة في المعماريات التقليدية مثل الشبكات العصبية التلافيفية (CNNs).

وبعد دراسة دقيقة، حدد الباحثون سبباً رئيسياً لهذا الفجوة في الأداء: وهو قدرة التكيف في المُهيئات (Pre-conditioners) التي تحد من قدرة المحسن على التكيف مع تضاريس التحسين المتنوعة. ولكن ابتكارهم الجديد، Anon (Adaptive Non-restricted Optimizer with Novel Convergence technique)، يمثل خطوة ثورية في هذا المجال، حيث يمكّن المستخدم من تحسين أدائه بتحكم مستمر في ميزات التكيف العالمي، مما يجعله في وضع يسمح له بالتحول بين سلوكيات مثل Adam وSGD، وأيضاً إمكانية التفوق عليهما.

لضمان تحقيق التقارب عبر مجموعة التكيف بأكملها، تم تقديم آلية جديدة تُعرف بالتحديث المتأخر التدريجي (Incremental Delay Update - IDU)، وهي آلية مرنة أكثر من استراتيجية AMSGrad الصارمة، مما يعزز من قوة النموذج في وجه الضوضاء المختلفة للانحدار.

على الصعيد النظري، تم تحديد ضمانات التقارب تحت كل من الإعدادات المحدبة وغير المحدبة. وأثبتت التجارب العملية أن Anon يتفوق باستمرار على أفضل المحسنات المعروفة في مهام تصنيف الصور، ونمذجة الانتشار، ونمذجة اللغة. توضح هذه النتائج أن قدرتها على التكيف تمثل مبدأ تصميم قيماً يمكن ضبطه، وتقدم Anon أول إطار موحد موثوق قادر على جسر الفجوة بين المحسنات التقليدية والحديثة، متجاوزاً مزاياها.