في عالم تصنيف الصور، تظل الشبكات العصبية الالتفافية (Convolutional Neural Networks - CNNs) أحد أبرز الأساليب المستخدمة. ومع ذلك، تعتمد فعالية هذه الشبكات بشكل كبير على اختيارات التصميم والتدريب. في دراسة جديدة تم نشرها، تم تحليل تحسينات بناءً على التقنيات التجريبية في الأداء عند استخدام CIFAR-10 كمعيار مرجعي.

تناولت الدراسة 17 تعديلًا تدريجيًا متنوعًا شمل مدة التدريب، وضبط معدل التعلم (Learning-rate scheduling)، وتكوين التسرب (Dropout configuration)، واستراتيجية التجميع (Pooling strategy)، وعمق الشبكة، وترتيب المرشحات (Filter arrangement)، وتصميم الطبقات الكثيفة (Dense-layer design). الهدف من هذه التعديلات كان تحديد أي منها يساهم في تحسين عملية التعميم (Generalization) وأيها يزيد من التعقيد دون تحسين الأداء.

نجح النموذج الأساسي في تحقيق دقة اختبار بلغت 79.5%. وقد أظهرت النتائج أن تمديد مدة التدريب يمكن أن يحسن الأداء بشكل مستمر، بينما أدت بعض التعديلات الهيكلية إلى انخفاض الدقة رغم الفروقات الكبيرة في التصميم.

استنادًا إلى أفضل التكوينات الفردية، تم إنشاء تجميع مرجح، مما أدى إلى تحقيق دقة بلغت 86.38% في إعداد البيانات المخففة و89.23% عند استخدام مجموعة بيانات CIFAR-10 بالكامل. تشير هذه النتائج إلى أن الارتفاع في الأداء يعتمد بشكل أقل على زيادة العمق أو عدد المعلمات بصورة عشوائية، وأكبر بكثير على الاختيار الدقيق للتعديلات التدريبية والهندسية.

تسلط هذه الدراسة الضوء على القيمة العملية لتحسين الأداء بناءً على تقنيات التجارب المخففة والتعلم الجماعي (Ensemble Learning) في تصنيف الصور الصغيرة.