تُعتبر الشبكات العصبية المفرطة المعلمات (Overparameterized Neural Networks) جزءًا أساسيًا من مجال الذكاء الاصطناعي، حيث يُظهر الكثير منها ميزة مثيرة تُعرف باسم الفرط البنّاء (Benign Overfitting). هذه الميزة تسمح للنماذج بتحقيق دقة عالية في التعميم رغم أن عدد المعلمات يتجاوز عدد أمثلة التدريب. لكن كيف يمكن تفسير هذه الظاهرة؟
تشير الأبحاث الجديدة إلى أن التعميم يتعلق بالنorm الخاص بالمسافة من التهيئة (Initialization)، حيث يكون هذا النorm غالباً أقل بكثير من النorm الفعلي. ومع ذلك، قدمت التحليلات السابقة المتعلقة بالتعقيد المعتمد على التهيئة قياسات تعتمد على مقياس فربنييوس (Frobenius Norm)، مما أدى إلى نتائج غير مجدية في الممارسة العملية.
في هذه الورقة، قمنا بتطوير حدود تعقيد جديدة تعتمد على التهيئة للشبكات العصبية السطحية التي تستخدم دوال تفعيل ليبشيتز العامة (General Lipschitz Activation Functions). حيث نعتمد على ما يسمى بمقياس المسار (Path-Norm) الذي يتناول التحديات المرتبطة بالتهيئة، وذلك من خلال تقديم تقنية جديدة تُعرف بالتقنية المقشرة (Peeling Technique).
فضلاً عن ذلك، توصلنا إلى حد أدنى مرتبط بدقة مع عامل ثابت. قمنا بإجراء مقارنات تجريبية تُظهر أن تحليلنا للتعميم يتضمن حدودًا غير فارغة لنماذج مفرطة المعلمات، مما يعزز فهمنا لكيفية تحسين أدائها.
تحديد حدود التعميم غير الفارغة لنماذج الشبكات العصبية السطحية المفرطة المعلمات!
تقدم هذه الدراسة تحليلًا جديدًا لحدود التعميم المرتبطة بالتحجيم للنماذج العصبية المفرطة المعلمات، مما يفتح آفاقًا جديدة لفهم سلوكها. النتائج تشير إلى إمكانيات تفاوت عالية في الأداء بالرغم من عدد المعلمات.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
