تُعتبر مخاطر السلامة في غرف العمليات أحد أبرز التحديات التي تواجه القطاع الطبي، إذ يُمكن أن تؤدي الأخطاء إلى نتائج خطيرة للمرضى. في إطار جهود تحسين هذه النتائج، تم تطوير Benchmark جديد يحمل اسم OR-VSKC، يستهدف معالجة تضارب المعرفة البصرية-الدلالية (Visual-Semantic Knowledge Conflicts - VS-KC) في نماذج ذكاء اصطناعي متعددة الوسائط (Multimodal Large Language Models - MLLMs).

يظهر في أبحاث سابقة أن هذه النماذج تُعاني من عجز في تفعيل المعرفة المتعلقة بالسلامة خلال عمليات التفتيش البصرية، مما يتسبب في فقدان التعزيزات المحتملة للسلامة. ولتصحيح هذا الانحراف في التوافق، تم إنشاء OR-VSKC كأداة بحث تستند إلى بيانات تركيبية مصممة بشكل خاص بناءً على معايير السلامة المعتمدة.

يتضمن Benchmark الجديد 28,190 صورة تركيبية عالية الدقة مستندة إلى معايير موثوقة، بالإضافة إلى مجموعة تحدي مؤلفة من 713 صورة تم تأليفها من قبل خبراء. تتكون هذه الصور من سياقات حقيقية لغرف العمليات تم استخراجها من قواعد بيانات 4D-OR وCAMMA-MVOR، حيث تقدم قاعدة بيانات 4D-OR قلب Benchmark الأساسي بينما تُستخدم بيانات CAMMA-MVOR للتحقق الخارجي والتحليل العام.

تظهر التقييمات الحالية أن هناك فجوات كبيرة في موثوقية النماذج المتقدمة، مما يقلل من إمكانية استخدامها في بيئات السلامة الحساسة. لكن التجارب أثبتت أن التعديل الدقيق على OR-VSKC يمكن أن يقلل بشكل فعال من مشكلات VS-KC، مما يمكّن نماذج الذكاء الاصطناعي من تقديم أداء أفضل في مواجهة زوايا كاميرا غير مألوفة.

كما تم توفير شفرة المصدر والبيانات للبحث القابل للتكرار في البيئات الطبية الحرجة، مما يُعزز الشفافية والمصداقية في الأبحاث المستقبلية. ستساهم هذه الخطوة في دعم الجهود المستمرة لتحسين سلامة المرضى في غرف العمليات، مما يفتح الأبواب على مصراعيها أمام المزيد من الابتكارات في هذا المجال.

ما رأيكم في هذا التطور المذهل؟ شاركونا في التعليقات.