في عالم الذكاء الاصطناعي، يعد فهم عدم اليقين (Uncertainty) أمراً حيوياً لتقديم تفسيرات دقيقة وقرارات موثوقة. قدم الباحثون نموذجًا جديدًا يُدعى كريدنس (CREDENCE)، والذي يُعتبر نموذجًا ثوريًا في فئة نماذج عوائق المفاهيم (Concept Bottleneck Models).

يقوم هذا النموذج بالتنبؤ عبر مفاهيم يمكن للبشر فهمها، لكنه يواجه تحدياً كبيراً، حيث غالباً ما يتم دمج عدم اليقين المعرفي (Epistemic Uncertainty) مع عدم اليقين العشوائي (Aleatoric Uncertainty). هذا الدمج يجعل من الصعب تفسير الشكوك المفاهيمية، وبالتالي، يصعب اتخاذ قرارات مبنية على هذه الشكوك.

إذن، كيف يعمل نموذج كريدنس؟ يقوم بتفكيك الشكوك المفاهيمية من خلال بناء متكامل. يمثل كل مفهوم بتوقعات كريدالية (Credal Prediction)، والتي هي في شكل مجال احتمالي، حيث يتم اشتقاق عدم اليقين المعرفي من التباين بين رؤوس المفاهيم المختلفة. في المقابل، يتم تقدير عدم اليقين العشوائي عن طريق إخراج غامض مخصص يُدرب لمطابقة تباين المصنفين عندما يكون ذلك متاحًا.

النتائج الناتجة تدعم اتخاذ القرارات الصحيحة؛ تشمل أتمتة الحالات ذات عدم اليقين المنخفض، وتحديد أولويات جمع البيانات للحالات ذات عدم اليقين المعرفي العالي، وتوجيه الحالات ذات عدم اليقين العشوائي العالي للمراجعة البشرية، والتوقف عن اتخاذ القرار عندما يكون كلا النوعين من عدم اليقين عاليين.

يظهر البحث، من خلال عدة مهام، أن عدم اليقين المعرفي له علاقة إيجابية بأخطاء التنبؤ، في حين يتتبع عدم اليقين العشوائي تباين المصنفين، مما يوفر إرشادات تتجاوز الارتباط الخاطئ.

لمزيد من المعلومات، يمكنك الاطلاع على التنفيذ المتاح على الرابط التالي: [https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm](https://github.com/Tankiit/Credal_Sets/tree/ensemble-credal-cbm).

ما هي رؤاكم حول هذا النموذج المبتكر؟ هل تعتقدون أنه سيساهم في تطوير مجال الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات!