في عالم الذكاء الاصطناعي، تظل مسألة كيفية تعلم الشبكات العصبية العميقة لتمثيلات البيانات تحدياً مركزياً في نظرية التعلم الآلي. وقد قدم فريق من الباحثين إطارًا جديدًا يركز على تحليل عمليات تدريب الشبكات العصبية من خلال ربط تحديثات الأوزان بتطور الميزات.

ابتكر الباحثون ما يسمى بمعادلة تعلم الميزات، التي تحدد مصفوفة الوزن (Weight Gram Matrix) كمكون رئيسي في التقاط الديناميات الخاصة بالميزات. وهذا يتيح النظر إلى الهبوط التدريجي (Gradient Descent) كعملية تحفز تطوراً افتراضياً للميزات، يتميز هيكله التبايني، المعروف بتباين افتراضي (Virtual Covariance)، بكيفية تطور التمثيلات خلال فترة التدريب.

علاوة على ذلك، تم تقديم مفهوم الاستقامة المستهدفة (Target Linearity)، كمعيار يقيس مدى الاستقامة الخطية بين الميزات والأهداف. من خلال تحليل الديناميات التدريبية والطبقية، تبين أن الشبكات العميقة تتعلم بشكل متتابع تحويل التمثيلات نحو هيكل خطي مستهدف.

هذه الرؤية الجديدة تقدم تفسيرًا موحدًا للعديد من الظواهر التجريبية، بما في ذلك الانهيار العصبي (Neural Collapse) والتداخل الخطي في النماذج التوليدية. ولذا، فإن فهم هذه الديناميات يمكن أن يسهم بعمق في تحسين أداء النماذج وإتاحة تطوير حلول أكثر فعالية في مجال الذكاء الاصطناعي.