تُعد الرسوم البيانية (Graphs) غير المتشابهة من السمات الشائعة في العديد من التطبيقات الواقعية، لكنها غالباً ما تعيق الأداء لــ الشبكات العصبية البيانية (Graph Neural Networks - GNNs). على الرغم من الجهود السابقة لتكييف هذه الشبكات مع الرسوم البيانية غير المتشابهة من خلال توسيع جيران غير محليين أو تحسين بنية النموذج، لا تزال الأسباب الجذرية وراء الأخطاء التصنيفية غير مفهومة بوضوح.

هذا البحث يقدم منظورًا جديدًا من خلال دراسة الفروع الاستقرائية المتكررة (Inductive Subgraphs)، حيث يوضح بشكل تجريبي ونظري أنها تعمل كاختصارات مضللة تؤثر سلباً على الشبكات العصبية وتعزز الترابطات غير السببية في الرسوم البيانية غير المتشابهة. وللتعامل مع هذا، نعتمد على منظور الاستدلال السببي لتحليل وتصحيح سلوك التعلم المنحاز الناتج عن هذه الاختصارات.

نقترح نموذجًا يُعرف بـ "الإطار السببي المُفكك" (Causal Disentangled GNN - CD-GNN) الذي يقوم بشكل صريح بحجب المسارات المربكة (Confounding) والتفريغ (Spillover) المسؤولة عن هذه الاختصارات. من خلال التركيز على الإشارات السببية الحقيقية فقط، يُظهر CD-GNN تحسنًا كبيرًا في قدرة الشبكة على تصنيف العقد في الرسوم البيانية غير المتشابهة، مما يعزز من دقتها وثباتها.

تشير التجارب الواسعة التي أُجريت على مجموعات البيانات الواقعية إلى أن نموذج CD-GNN ليس فقط يتفق مع النتائج النظرية التي توصلنا إليها، بل يتفوق أيضًا على النماذج الحالية المتعارف عليها لمواجهة عدم التشابه (Heterophily). هذه النتائج تفتح آفاقًا جديدة في استخدام الذكاء الاصطناعي لتحسين الأداء في واقع يسوده التعقيد.

ما رأيكم في هذه التطورات الجديدة في الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات!