في عالم الذكاء الاصطناعي، يتم العمل بشكل مستمر على تحسين دقة النماذج التنبؤية من خلال زيادة حجمها وعمقها، لكن هل يؤدي هذا إلى تحسين جودة الشرحات التي تقدمها هذه النماذج؟

تقدم دراسة حديثة، نشرت في arXiv، رؤية جديدة حول هذا الموضوع. حيث تم تقييم 11 نموذجاً من نماذج رؤية الحاسوب (Computer Vision Models) التي تمثل مستويات متزايدة من العمق والتعقيد، بما في ذلك أنماط ResNet وDenseNet وVision Transformer. تم تدريب هذه النماذج من الصفر أو إعادة تدريبها مسبقاً، وتم تقييمها عبر ثلاثة مجموعات بيانات تحتوي على أقنعة تقسيم حقيقية.

استخدم الباحثون خمس طرق من طرق الذكاء الاصطناعي القابل للتفسير (Explainable AI) لتوليد الشرحات، وقاموا بقياس توافق الأقنعة باستخدام مقاييس محلية جديدة. ووجدوا أن زيادة العمق المعماري وعدد المعلمات لا يؤديان إلى تحسين جودة الشرحات. بل، في كثير من الحالات، كانت النماذج الأصغر تقابل أو حتى تتفوق على المتغيرات الأكبر.

وعلى الرغم من أن إعادة التدريب عادةً ما تحسن الأداء التنبؤي للنماذج، إلا أنها لا تضمن ارتفاع درجات التوافق المحلي. أكثر من ذلك، لوحظت حالات كانت فيها النماذج تؤدي بشكل جيد لكن دقة الشرح كانت قريبة من الصفر، مما يشير إلى أن المقاييس التقليدية قد لا تكون كافية لتحديد ما إذا كانت التنبؤات تعتمد على المناطق المسجّلة.

تشير هذه النتائج إلى أن النماذج الأكبر لا توفر دائماً شرحات عالية الجودة، مما يعني أنه ينبغي تقييم قابلية الشرح بشكل صريح خلال اختيار النماذج، خصوصاً في التطبيقات الحساسة من حيث الأمان.

إذا كنت مهتمًا بفهم المزيد عن كيفية تأثير هذه الاكتشافات على استخدام الذكاء الاصطناعي، وما المعايير التي يجب أن نتبناها في المستقبل، تابعونا!