في السنوات الأخيرة، شهدت أنظمة الذكاء الاصطناعي (AI) في المجال الطبي تطوراً كبيراً. لكن رغم تفوقها على الأطباء في بعض الحالات، لا تزال تلك الأنظمة نادرة الاستخدام في الواقع العملي. يعود السبب في ذلك إلى عدم وضوح كيفية اتخاذ هذه الأنظمة لقراراتها، الأمر الذي يتسبب في نقص في الشفافية وغياب التفسير المناسب.
لذا قامت مجموعة من الباحثين بإجراء تحليل شامل يركز على المستخدم حول أحدث أساليب التفسير القابلة للتفسير في الذكاء الاصطناعي (XAI) المستخدمة في تشخيص الصور الطبية. شمل الاستطلاع 33 طبيباً، وكشف أن 88% منهم يرون أن من المهم أن توضح أنظمة الذكاء الاصطناعي تشخيصاتها، بينما 64% منهم يؤكدون بشدة على هذه الحاجة.
توضح النتائج أن الجمع بين صندوق التحديد (Bounding Box) والتقرير يعد الأفضل بين طرق التفسير الأخرى في الجوانب المدروسة مثل الفهم، الاكتمال، السرعة، والقابلية للتطبيق. كما تم اختبار التأثير السلبي المحتمل للتشخيصات الخاطئة الناتجة عن الذكاء الاصطناعي، ووجد أن 50% من المشاركين يثقون في التشخيصات الخاطئة رغم جميع طرق التفسير المتاحة.
وهذا يدعو للتفكير في كيفية تحسين الشفافية في أنظمة الذكاء الاصطناعي الطبية، وما إذا كانت بحاجة لتطوير طرق تفسيرية جديدة لضمان الثقة من قبل المستخدمين والممارسين في هذا المجال.
فهم قرار الذكاء الاصطناعي في تشخيص الصور الطبية: دراسة تفاعلية تضع المستخدم في الصدارة
أظهرت دراسة جديدة أن أغلب الأطباء يؤمنون بأهمية تفسير قرارات الذكاء الاصطناعي في تشخيص الصور الطبية. نتائج البحث كشفت عن اختيارات تفضيلية بين طرق التفسير المستخدمة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
