تشهد أبحاث تفسير الظواهر الميكانيكية (Mechanistic Interpretability) في الذكاء الاصطناعي نمواً ملحوظاً، حيث أصبحت اللغة السببية جزءاً أساسياً من هذه الدراسات، وذلك باستخدام مصطلحات مثل الدوائر والشبكات الوسيطة والتجريد السببي. ولكن ما يثير القلق هو أن مثل هذه الادعاءات تتطلب افتراضات تعريف واضحة، وهو ما افتقرت إليه العديد من الدراسات السابقة.

تهدف دراسة حديثة إلى مراجعة عشرة أوراق بحثية ضمن أربعة اتجاهات منهجية، حيث وجدت أنه لا توجد أقسام مخصصة تتعلق بالافتراضات التعريفية في هذه الأوراق. بدلاً من ذلك، يتم استخدام مقاييس تقييم مثل الوفاء والكمال والتوافقية كدعم سببي، دون توضيح الافتراضات التي تجعل هذه المقاييس نهائية.

من خلال مراجعة قائمة للأبحاث بقلم اثنين من الباحثين، تم التأكد من أن وجود أقسام مخصصة لهذه الافتراضات كان غائباً، مما يعكس نمطاً شائعاً يتمثل في استخدام بدائل مقاييس التقييم. وتعتبر هذه النتائج مهمة لأنها تؤكد على ضرورة وجود معايير للإفصاح عن الافتراضات المطلوبة لفهم الادعاءات السببية.

تقترح الدراسة أيضًا إنشاء معايير جديدة للإفصاح عن الأبحاث، مما يتطلب توضيح ما إذا كان الادعاء سببيًا، تحديد استراتيجية التعريف، تعداد الافتراضات، التأكيد على ضرورة وجود واحد على الأقل، وشرح كيفية تغير النتائج في حال فشل هذه الافتراضات. يجب أن نضع في اعتبارنا أن التحقق ليس هو التعريف، مما يسلط الضوء على الأهمية الكبيرة لتعزيز الشفافية في الأبحاث العلمية.