في عالم البيانات السريرية، نشهد تزايدًا ملحوظًا في استخدام البيانات متعددة الوسائط (Multi-modal Data)، والتي توفر أدلة متكاملة تتوافق مع الحاجة العملية لتقييم نتائج متعددة مترابطة. ومع أن التعلم المتعدد المهام (Multi-task Learning) يمكن أن يعزز الكفاءة من خلال تبادل المعلومات عبر النتائج، إلا أن الأساليب الحالية غالبًا ما تفشل في تحقيق التوازن بين التعلم من التمثيلات المشتركة والنمذجة الخاصة بكل نتيجة.

تظهر التحديات عندما يؤدي المشاركة الصعبة للمعلمات (Hard Parameter Sharing) إلى تحويل سلبي في النتائج عندما تتعارض التدرجات بين المهام، بينما قد يؤدي التعاون المرن إلى التداخل بين الإشارات المشتركة والخاصة بالمهام.

لذا، اقترح الباحثون إطارًا متعدد المهام يعتمد على Transformer موحد لمزج البيانات متعددة الوسائط، مدعمًا بتفكيك المهام العمودي (Orthogonal Task Decomposition أو OrthTD). يهدف هذا الإطار إلى فصل تمثيلات المرضى إلى فضاءات مشتركة وخاصة بكل مهمة، مع فرض قيود هندسية للحد من التداخل وعزل الإشارات الخاصة بالمهام.

تم تقييم OrthTD على عينة حقيقية تضم 12,430 مريضًا خضعت لعمليات جراحية، بهدف التنبؤ بأربعة نتائج. وقد حقق OrthTD متوسط AUC (مساحة تحت منحنى التشغيل) بلغ 87.5% ومتوسط AUPRC (مساحة تحت منحنى الدقة-الاسترجاع) بلغ 37.2%، متفوقًا باستمرار على الأساليب المتقدمة في البيانات الجدولية والمتعددة المهام.

الأكثر من ذلك، أظهر OrthTD مكاسب كبيرة في AUPRC، مما يشير إلى أداء متفوق في التعرف على الأحداث النادرة في البيانات السريرية غير المتوازنة. تشير هذه النتائج إلى أن فرض التمثيلات المشتركة وغير المتداخلة الخاصة بالمهام يمكن أن يُحسن التنبؤ بمتعددة النتائج من البيانات السريرية متعددة الوسائط.

ما رأيكم في هذه التقنية الجديدة؟ شاركونا آراءكم وتجاربكم.