في قلب التحديات العلمية التي تواجهها تقنيات التعلم الآلي، تظهر الحاجة الملحة لتعلم مشغلين فعالين في نظم ذات هندسة متغيرة ومعقدة. تقدم الدراسة الجديدة بعنوان "ArGEnT: Arbitrary Geometry-encoded Transformer for Operator Learning" نموذجًا ثوريًا يتيح تعلم المشغلين مباشرةً من تتمثيلات الهندسة العشوائية.

تستخدم تقنية ArGEnT آليات انتباه (Attention) تعتمد على المحولات (Transformers) لدمج المعلومات الهندسية من نماذج سحابية نقطية (Point-cloud Representations). ومن خلال ثلاثة أشكال مختلفة من الانتباه: الانتباه الذاتي (Self-attention)، والانتباه المتقاطع (Cross-attention)، والانتباه الهجين (Hybrid-attention)، يتمكن النظام من تطبيق استراتيجيات متنوعة لدمج الميزات الهندسية بنجاح.

بدمج ArGEnT في شبكة DeepONet كنموذج أساسي، يتم تطوير إطار عمل للنمذجة البديلة (Surrogate Modeling) قادر على تعلم خرائط المشغلين التي تعتمد على المدخلات الهندسية وغير الهندسية معًا، دون الحاجة إلى تحديد الهندسة بشكل صريح. تظهر النتائج من تقييمات لمشكلات اختباريّة متعددة في مجالات الديناميكا الهوائية (Fluid Dynamics) وميكانيكا المواد الصلبة (Solid Mechanics) والأنظمة الكهروكيميائية (Electrochemical Systems) تحسنًا ملحوظًا في دقة التنبؤ وأداء التعميم مقارنةً بنموذج DeepONet القياسي ونماذج بديلة أخرى.

بالتحديد، يسمح شكل الانتباه المتقاطع بتحقيق تنبؤات دقيقة تعتمد على الهندسة مع تقليل الاعتماد على وظائف المسافة الموقعية الموقعة. من خلال دمج تكنولوجيا تشفير الهندسة المرنة مع قدرات تعلم المشغلين، يوفر ArGEnT إطار عمل للنمذجة البديلة قابل للتوسع، مما يعزز من الأدوات المتاحة للاستخدام في الأمثلية (Optimization) وتقدير عدم اليقين (Uncertainty Quantification) ونمذجة الأنظمة الفيزيائية المعقدة بدافع البيانات (Data-driven Modeling).

ما رأيكم في هذا التطور الثوري في عالم الذكاء الاصطناعي؟ هل تعتقدون أنه سيفتح آفاقًا جديدة في البحث العلمي؟ شاركونا في التعليقات.