في عالم الذكاء الاصطناعي وتعلم الآلة، لطالما كانت نماذج التنبؤ أداة قوية تُستخدم لفهم البيانات والتفاعل معها. ولكن، هل تستطيع هذه النماذج حقاً استنباط الهيكل السببي (causal structure) من البيانات؟ في دراسة جديدة، يبدو أن نموذج الحالة المعروف باسم Mamba، والذي تم تدريبه فقط للتنبؤ بالخطوة التالية، يزعم أنه قادر على التقاط الهيكل السببي من خلال معادلة بسيطة. ومع ذلك، تقدم التجارب الأولية نتائج تشير إلى أن هذا الادعاء قد لا يكون دقيقاً.

تتضمن الطريقة المستخدمة في اختبار هذا الادعاء مجموعة من المعايير القياسية مثل مولدات البيانات الاصطناعية (VAR/Lorenz/CauseMe-style)، وثلاثة سيناريوهات تدخل، مما يسمح بتدقيق النتائج من خلال خمس مراحل مختلفة.

ولكن بمراجعة النتائج، يظهر أن:
1. نموذج بسيط قد يعكس الأداء أو حتى يتفوق على نموذج Mamba.
2. باستخدام أسلوب Lasso المتقن، استطاعت النماذج التفوق على نموذج Mamba في تجربة CauseMe وأيضًا في بيانات Lorenz-96، حيث يعد benchmark الوحيد الذي يحتوي على حقيقة واضحة.
3. الفائدة المزعومة من تدخلات النموذج تمثل تقريبًا 60% من ارتباك حجم العينة، حيث تلاشت الآثار في التدخلات القياسية.
4. حتى الاعتماد على أسلوب تدخل عشوائي لم يعط نتائج ذات مغزى، حيث تبين أن آثار الهيكل السببي تتكرر في نماذج Granger التقليدية.

في نهاية المطاف، يسلط هذا البحث الضوء على أهمية التحقق من ادعاءات نماذج الذكاء الاصطناعي ويعزز فكرة أن النتائج قد تكون أكثر تعقيدًا من بسيطة.

ما رأيكم في قدرة نماذج ML في استنباط العلاقات السببية؟ شاركونا في التعليقات!