في عالم الطب الحديث، يُعد استخدام التعلم العميق (Deep Learning) في تشخيص الأمراض تحديًا كبيرًا؛ إذ يتعين على الباحثين تحقيق التوازن بين سلامة المرضى والامتثال لقوانين حماية البيانات. تُعتبر تقنية 'إلغاء التعلم الآلي' (Machine Unlearning) وسيلة فعالة لإزالة البيانات التدريبية بشكل انتقائي من النماذج الناشطة. ومع ذلك، أظهرت معظم الدراسات أن طرق الإلغاء التقليدية لا تركز سوى على الكفاءة ومستويات الخصوصية، دون الإشارة إلى تكلفة الأخطاء السريرية غير المتكافئة.

أجرى الباحثون مؤخرًا دراسة حول كيفية تأثير تقنيات الإلغاء على المخاطر السريرية في تصنيف الصور الطبية الثنائية. وقد أظهروا أن الاستراتيجيات الشائعة مثل 'التعديل الدقيق' (Fine-Tuning) و'تسميات عشوائية' (Random Labeling) و'SalUn' قد تؤدي إلى تقليل فائدة الاختبار وزيادة معدلات الإيجابيات الكاذبة، مما يزيد من المخاطر السريرية.

لتقليل هذه المخاطر، يقترح الفريق البحثي تقنية جديدة تُعرف بـ 'SalUn-CRA' (المعرفة بالمخاطر السريرية). تعتمد هذه التقنية على استبدال إعادة التسمية العشوائية بنظام نسيان قائم على الإنتروبيا للنماذج الخبيثة، مما يمنع النماذج من تعلم الارتباطات الضارة بالعناصر الحميدة.

أجري تقييم للتقنية الجديدة باستخدام مجموعات بيانات الصور الطبية المدرجة مثل DermaMNIST وPathMNIST، مع إلغاء 20% و50% من البيانات. وأظهرت النتائج أن تقنية SalUn-CRA تحقق مخاطر سريرية أقل أو مشابهة عند مقارنتها بإعادة التدريب الكامل، مع الاحتفاظ بفاعلية الإلغاء. تُشير هذه النتائج إلى ضرورة اعتبار المخاطر السريرية عنصرًا أساسيًا في تقييم استراتيجيات الإلغاء في الأنظمة الطبية.