في عالم التعلم العميق، تتواجد ظاهرة تُعرف بالتعلم المختصر (Shortcut Learning)، حيث تعتمد النماذج على ميزات غير أساسية ضمن البيانات. وفي الوقت الذي نقصده، يبدو أن لدينا غموضًا نظريًا حول كيفية تشكل هذا التوجه خلال تدريب الشبكات العصبية. في هذا السياق، نقدم تعريفًا رسميًا للميزات الأساسية (Core Features) والميزات المختصرة (Shortcut Features) ونستخدم نظرية الألعاب التطورية (Evolutionary Game Theory) لتحليل جذور هذا الانحراف.
حيث تمثل عينات البيانات، المعروفة باللاعبين، وميزاتها المتجهة العصبية كاستراتيجيات ضمن هذا النموذج. وقد أظهرنا أنه في سياق الممارسات الشائعة مثل الانحدار التدرجي (Gradient Descent) والانحدار التدرجي العشوائي (Stochastic Gradient Descent)، تسفر كل استراتيجية عن حالة مستقرة استقرائيًا تختلف عن الأخرى.
فالأولى تركز بشكل أساسي على تحسين الشبكة الفرعية المختصرة، بينما تهدف الثانية إلى تحسين الشبكة الفرعية الأساسية. ومن خلال استخدام معادلة تفاضلية عشوائية مستمرة، استقصينا تأثير هذه الاستراتيجيات على انحراف التعلم المختصر وكشفنا عن تأثير الضوضاء في البيانات وضوضاء التحسين على تكوين هذا الانحراف.
وبإيجاز، يهدف بحثنا إلى استخدام نظرية الألعاب التطورية لوصف ديناميات تشكيل انحراف التعلم المختصر ويقدم منظورًا نظريًا للحد منه. وهذا يثير تساؤلات جديدة حول كيفية تحسين نماذج التعلم العميق لتحقيق أداء أفضل مع الاعتماد بشكل أقل على الميزات غير الأساسية.
فهم التعلم المختصر من منظور نظرية الألعاب التطورية: كيف تؤثر الاستراتيجيات على نماذج التعلم العميق؟
تقدم هذه الورقة تعريفًا رسميًا للميزات الأساسية والمختصرة في نماذج التعلم العميق، وتستخدم نظرية الألعاب التطورية لتحليل أسباب انحراف التعلم المختصر. تكشف النتائج كيفية تأثير استراتيجيات التحسين على تشكيل هذا الانحراف.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
