في عالم الذكاء الاصطناعي، يعد الانجراف المفاهيمي (Concept Drift) من أكبر التحديات التي يمكن أن تواجها نماذج التعلم الآلي في البيئات الديناميكية. يحدث هذا الانجراف عندما تتغير العملية التي تولد البيانات، مما قد يؤدي إلى انخفاض ملحوظ في أداء النماذج. لكن كيف يمكننا تقييم قدرة هذه النماذج على التعامل مع مثل هذه التحولات؟

التقييم التقليدي، الذي يعتمد على مجموعات اختبارات ثابتة أو تغييرات عشوائية في البيانات، غالباً ما يفشل في الحفاظ على الروابط السببية في البيانات الجدولية. هذا يعنى أن هذه التقييمات قد تكون غير صالحة من الناحية السببية. بينما توفر أدوات ما بعد المعالجة مثل SHAP وLIME رؤى تتعلق بالعلاقة بين المتغيرات، إلا أنها قد لا تعكس الآليات السببية الحقيقية التي تؤدي إلى فشل النموذج.

لذا، نقترح إطار عمل جديد يستغل نماذج سببية هيكلية (Structural Causal Models) كمثيلات رقمية (Digital Twins) لعمليات توليد البيانات. هذا يمكننا من إجراء تدخلات سببية دقيقة مع الحفاظ على الاعتماد الهيكلي. تقنيتنا، المعروفة باسم محاكاة الانجراف البارامترى (Causal Parametric Drift Simulation)، تقوم باختبار ضغط النماذج (Stress Tests) لتحديد نقاط الضعف قبل تنفيذها على أرض الواقع.

أظهرت التجارب على مجموعة بيانات Open Sourcing Mental Illness (OSMH) أن هذا النهج يكشف عن نقاط ضعف خفية لا يمكن رصدها بواسطة المراقبين الإحصائيين التقليديين، مما يعكس أهمية وفائدة هذا الإطار في تحسين نموذج التصنيف وموثوقيته.