في عالم الذكاء الاصطناعي، يعتبر نموذج التراجع (Backpropagation) أحد الركائز الأساسية لتدريب الشبكات العصبية. ومع ذلك، كانت هناك دائمًا تساؤلات حول مدى فعالية هذه العملية وكيفية ارتباطها بالعالم الفيزيائي. في ورقة بحثية جديدة، يتم تناول هذا الموضوع من منظور مبتكر، حيث يتم اشتقاق التراجع الدقيق من مبدأ الأقل عمل (Least-Action Principle) الخاص بعلم الفيزياء.

الطريقة التقليدية لتدريب الشبكات العصبية عبر نموذج التراجع غالبًا ما تكون عملية رمزية، متميزة عن عملية الاستدلال، وتستخدم إشارات خطأ غير موضعية مع توقيت غير متزامن، مما يجعل من الصعب ربطها بالواقع الفيزيائي. ولكن من خلال إعادة صياغة الديناميكيات الأمامية في زمن مستمر وتكييف صياغة لاغرانج (Lagrangian) للأنظمة غير المحافظة، يتم دمج عمليات الاستدلال وحساب الانحدار ضمن إطار واحد.

تقدم الورقة بحثًا عن ديناميكية موحدة تعتمد على فضاء مزدوج، حيث تتفاعل المجالات المرافقة. يتم إدخال فقدان المهمة كاضطراب يكسر تناظر الفضاء الأمامي، بينما يتطور تعيين الائتمان كنتيجة للتوتر الذي يتكون بين الحالات المتقابلة.

تتميز هذه النظرية بكونها تعيد تشكيل فهمنا لكيفية عمل الشبكات العصبية، ويبدو أنها تمهد الطريق لاستخدام أدوات من الميكانيكا الكلاسيكية مثل الهندسة السيمplectic (Symplectic Geometry) ونظرية نوجر (Noether's Theorem) وطرق التكامل المساري (Path-Integral Methods) لتحليل ديناميكيات التعلم.

بالإضافة إلى ذلك، تشير النتائج إلى إمكانية تطبيق التعلم في البنية التحتية نفسها للأجهزة، مما قد يحدث ثورة في كيفية تصميم وتنفيذ أنظمة الذكاء الاصطناعي.