في عالم التعلم العميق، يعد سلوك النموذج أثناء الاختبار مع زيادة حجمه وبياناته من الظواهر الرئيسية التي تنال اهتمام الباحثين. ورغم أن هذا السلوك مشهور، إلا أن الأسس النظرية وراءه لا تزال غير مكتملة. في هذه الدراسة، نتناول مسألة زيادة العمق في الشبكات المتبقية المنظمة (Normalized Residual Networks) من خلال إدخال كتلة بقايا جديدة في طبقة وسطى لنموذج تم تدريبه مسبقًا.

يتمحور السؤال حول متى يمكن لهذه الزيادة أن تحقق تحسينات مثبتة في مخاطر الاختبار. وللإجابة على ذلك، طورنا إطارًا موحدًا يقسم هذا السؤال إلى ثلاثة مكونات رئيسية: المكاسب التمثيلية، مكاسب التحسين، وانتقال التعميم.

أولًا، تحت شرط هبوط من الدرجة الأولى بالقرب من نقطة البداية الصفرية، أثبتنا أن فئة الفرضيات الموسعة تحتوي على نموذج مساعد يعمل كمنصة قفز، يمتلك مخاطر سكانية أقل بشكل ملحوظ من النموذج الأصلي. ثانيًا، باستخدام التحكم في القيم المطلقة المتناسبة مع الهياكل المتبقية ما بعد النورمال، وضعنا حدًا معقدًا يعتمد على القيم المطلقة لمجموعة النماذج الموسعة.

تؤدي هذه العناصر إلى ضمانات مزدوجة لمخاطر الاختبار: أحد المسارات يعتمد على المخاطر السكانية ويكون أكثر دقة عندما تكون الهوامش السكانية إيجابية، بينما الآخر يعمل مباشرة على مستوى التدريب/الاختبار، متجنبًا عمليات الانتقال المعقدة، ويكون أكثر مقاومة في الأنظمة الانحرافية.

توفر هذه النتائج معًا آلية مستندة إلى نظرية توضح كيف يمكن لتحسين عمق البقايا أن يحسن الأداء في الشبكات المتبقية المنظمة. وبشكل أوسع، تشير النتائج إلى أن عملية التحجيم هي في الأصل مشتركة: العمق يخلق اتجاهات جديدة للتحسين، والعرض يعزز القدرة على رؤية الإشارات الضعيفة في البيانات، وبيانات التدريب تحدد ما إذا كان يمكن التحكم في التكلفة الإحصائية للتوسع.