في خطوة مثيرة نحو تحسين كفاءة التدريب في شبكات CNN (شبكات الالتفاف العصبية العميقة)، تم تقديم أسلوب جديد يركز على تقييم أداء كل طبقة أثناء التدريب. تعتمد هذه الطريقة على قياس مدى تغير معلمات كل طبقة، وتحديد ما إذا كانت ستستمر في التعلم أم لا.
من خلال الاعتماد على هذه القياسات، يستطيع النظام تقليل عدد المعلمات التي يتم تعلمها، مما يؤدي إلى تسريع عملية التدريب إلى أكثر من النصف. بينما تركز معظم الأساليب الحالية على ضغط الشبكة لتسهيل استخدامها في مرحلة استنتاج البيانات أو تقليل العمليات في مرحلة الانتشار العكسي (Backpropagation)، تقدم هذه الطريقة الجديدة بديلاً مبتكراً يركز على تقليل العمليات أثناء الانتشار الأمامي (Forward Propagation) خلال مرحلة التدريب.
تم اختبار هذه الاستراتيجية على عائلتين من المعمارية الشهيرة، وهما VGG وResNet، واثبتت التجارب على مجموعات بيانات مثل MNIST وCIFAR-10 وImagenette أنها قادرة على تقليص زمن التدريب بأكثر من 50% دون التأثير الكبير على الدقة. حيث أظهرت النتائج تقليصاً في عدد العمليات (FLOPs) خلال التدريب، حيث تراوح بين 17.83% لنموذج VGG-11 و83.74% لنموذج ResNet-152. تبرز هذه النتائج فعالية هذه التقنية مثيرة، وتعد مبتكرة في مجال التعلم العميق، خصوصاً في التطبيقات التي تتطلب تحسيناً دقيقاً أو تدريباً مستمراً للنماذج، مثل تلك التي تتعامل مع وصول البيانات بشكل متسلسل.
تعلم سريع لشبكات CNN: استراتيجية مبتكرة لتسريع عملية التدريب!
تقدم طريقة جديدة لتحسين كفاءة تدريب الشبكات العصبية العميقة عبر تقييم أداء الطبقات، مما يقلل من زمن التدريب بشكل كبير. النتائج تظهر تقليصاً في زمن التدريب دون التأثير على دقة النماذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
