في عصر البيانات الضخمة، أصبح تحسين الشبكات العصبية (Neural Networks) مسألة حيوية في مجالات التعلم العميق (Deep Learning). وعادةً ما تتطلب استراتيجيات تحسين مختلفة للتعديل على نماذج مدربة مسبقًا مقارنة بالتدريب من الصفر. ومع ذلك، تركز المحسّنات الحالية بشكل أساسي على تقليل دالة الفقد عن طريق تحديث معلمات النموذج، مما لا يعالج بشكل كامل الاحتياجات الفريدة لكل من هذين السيناريوهين.

في هذا السياق، نقدم DualOpt، مقاربة جديدة تفكك تقنيات التحسين، مصممة خصيصًا لتلك السيناريوهات التدريبية المتميزة. حيث نقدم في مرحلة التدريب من الصفر تقنية انحلال الوزن (Weight Decay) طبقة بعملية حقيقية، تهدف إلى تعزيز معدل التقارب (Convergence) والتعميم (Generalization) من خلال التوافق مع الخصائص الخاصة بتحديثات الوزن وهيكل الشبكة.

أما في حالة التعديل، فنقوم بدمج استعادة الوزن (Weight Rollback) مع المحسّن، مما يتضمن إضافة مصطلح الاستعادة إلى كل خطوة تحديث للوزن. يضمن ذلك اتساق توزيع الوزن بين النماذج المتقدمة والمتأخرة، مما يقلل من فقدان المعرفة (Knowledge Forgetting) ويحسن أداء التعديل.

كما نوسع تقنية انحلال الوزن لتعديل مستويات الاستعادة ديناميكيًا عبر الطبقات، مما يتكيف مع المتطلبات المتنوعة لمهام مختلفة.

لقد أظهرت التجارب المكثفة عبر مهام متنوعة، بما في ذلك تصنيف الصور، واكتشاف الكائنات، والتجزئة الدلالية، وتجزئة الكائنات، الأداء الواسع والقائم على أحدث التقنيات لـ DualOpt. يمكن الوصول إلى الكود الخاص بالتقنية عبر [https://github.com/qklee-lz/OLOR-AAAI-2024].

ما رأيكم في هذه المبادرة الجديدة لتحسين الشبكات العصبية وكيف يمكن أن تؤثر على مستقبل الذكاء الاصطناعي؟ شاركونا في التعليقات!