في عالم الذكاء الاصطناعي، لا تتوقف الابتكارات عند حدود معينة، بل تتجاوزها لتقدم لنا أدوات وحلول جديدة تتحدى الأنماط التقليدية. فمؤخراً، تم الكشف عن عمارة جديدة تُعرف باسم التحويل متعدد المقاييس (Multi-Scale Attention Transformer) والتي تُظهر تفوقها في حل المعادلات التفاضلية الجزئية (Partial Differential Equations - PDEs) مقارنةً بالشبكات العصبية القائمة على تحويل فورييه.
تدور هذه الدراسة حول مشكلة اختيار العمارة المناسبة للنماذج المستخدمة في حل المعادلات التفاضلية. حيث يتم تدريب النموذج على بيانات تاريخية مكانية وزمانية للحل، ويتم ذلك من خلال هدف إشرافي مركب مع إمكانية استخدام مُنظّمات قائمة على الفيزياء. وقد شمل البحث تجارب ميدانية شاملة قورنت فيها هذه العمارة ضد تسعة نماذج أساسية، بما في ذلك الشبكات العصبية المدعومة بالفيزياء (Physics-Informed Neural Networks - PINNs) وغيرها.
تُظهر النتائج أن العمارة الجديدة حققت إنجازاً ملحوظاً في مشكلات الهندسة المعقدة، حيث حققت تحسناً قدره 3.7 مرة على النموذج التقليدي (FNO) خلال فترة استغراق قدرها 34 ثانية فقط. عكس الموديل السابق والذي استغرق 120,812 ثانية، مما يدل على فعالية التحويل الجديد.
وجد الباحثون أيضاً أن استخدام المحفزات الفيزيائية يؤثر على أداء النموذج، حيث تؤدي إلى تقليل الأخطاء في المشكلات التي تسيطر عليها الانتشار، لكن قد تؤدي إلى تدهور في العموم عند التعامل مع تدفقات مضطربة. يساهم حد الأخطاء في تقريب النتائج في تقديم دليل نظري لهذه النتائج التجريبية، وهو ما يعد نقطة مرجعية هامة في اختيار العمارة المناسبة.
تسجل هذه الدراسات خطوة كبيرة في فهم كيفية تحسين النماذج الذكية عندما يتعلق الأمر بحل مشاكل رياضية معقدة. كيف ترى تأثير هذه الابتكارات على مستقبل الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات.
عندما تتفوق الانتباه على فورييه: ثنائية التحويلات متعددة المقاييس لحل المعادلات التفاضلية الجزئية
تقدم هذه الدراسة عمارة جديدة تعتمد على التحويلات متعددة المقاييس (Multi-Scale Attention Transformer) لحل المعادلات التفاضلية الجزئية، حيث تتفوق على الشبكات العصبية التقليدية في حالات هندسية معقدة. نتائج مثيرة تكشف عن تأثير المحفزات الفيزيائية في أداء النماذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
