في إطار تقدم الذكاء الاصطناعي، تلعب خرائط الخصائص التفسيرية (Class Attribution Maps - CAMs) دوراً محورياً في فهم كيف تتخذ الشبكات العصبية التلافيفية (Convolutional Neural Networks) قراراتها. ورغم استخدامها الواسع في التطبيقات، إلا أن تقييم دقة هذه الخرائط يمثل تحدياً كبيراً بسبب نقص التفسيرات الدقيقة التي يمكن الاعتماد عليها كمعيار.

لذلك، نحن بصدد تقديم مجموعة بيانات صناعية تحتوي على تفسيرات دقيقة (Ground-Truth Attributions) تتيح مقارنة موضوعية لمعايير تقييم خرائط CAM. من خلال هذه المجموعة، قمنا بتحليل المعايير الحالية وتقديم مقياس جديد يدعى ARCC، الذي يتيح التعرف بشكل موثوق على التفسيرات الصحيحة.

وبالإضافة إلى ذلك، تم تقديم RefineCAM كوسيلة لتحسين دقة الخرائط الإسنادية عن طريق تجميعها عبر عدة طبقات من الشبكة، مما ينتج عنه خرائط إسنادية عالية الدقة. أظهرت نتائج اختباراتنا أن RefineCAM تتفوق باستمرار على الطرق الحالية وفقاً لمعايير التقييم الجديدة، مما يمهد الطريق نحو تفسيرات أفضل وأكثر وضوحاً في تطبيقات الذكاء الاصطناعي.

كيف يمكن أن تتغير طريقة استخدامنا للخرائط التفسيرية بفضل هذه التطورات؟ شاركونا آراءكم حول أهمية هذه البحوث في التعزيز من شفافية تكنولوجيا الذكاء الاصطناعي.