تشير الأبحاث الحديثة في مجال الذكاء الاصطناعي القابل للتفسير (Explainable AI - XAI) إلى أن تحسين فهم المستخدمين لتفسيرات الذكاء الاصطناعي ما زال هدفًا صعب المنال، رغم الابتكارات الكبيرة في هذا المجال. وقد أظهرت تقييمات جديدة من قبل المستخدمين أن هناك تحديات قوية في استخدام هذه التفسيرات بشكل فعال.

تأتي هذه الدراسة لتسلط الضوء على تأثير الفهم البشري على قدرة المستخدمين على استيعاب وقراءة الآراء المدعومة بالذكاء الاصطناعي. وبالتركيز على البيانات المنظمة (Structured Data)، تم فحص استراتيجيات التفكير المختلفة التي تتبناها طرق مختلفة من XAI، مثل عدم توفر التفسير، أهمية الميزات، وتفسير الميزات.

وقد تمت الإجراءات من خلال دراستين مستخدمين: الأولى تجريبية لدراسة استراتيجيات التفكير مستخدمة نموذجًا معرفيًا لفهم العمليات العقلية الكامنة وراء تلك الاستراتيجيات. ومن ثم تم جمع بيانات القرار من دراسة ملخصة، ما ساعد في تقييم مدى ملاءمة النماذج المعرفية مع اتخاذ القرارات البشرية.

تظهر النتائج أن نماذجنا أفضل تطابقًا مع القرارات البشرية مقارنةً بالنماذج التقليدية. كما تنفس هذه الدراسات حياة جديدة في إمكانية تطوير تفسيرات ذكاء اصطناعي أكثر قابلية للاستخدام والفهم، مما يدعم مستقبل تفاعل المستخدمين مع هذه التكنولوجيا بأعلى كفاءة.

في النهاية، يمكن استخدام النموذج المصمم لفهم الفرضيات والبحث في الأسئلة البحثية التي قد تتطلب تكلفة عالية في دراسة المشاركين البشريين. هذا العمل يعد مساهمة مهمة في تصحيح الفهم البشري لتفسيرات الذكاء الاصطناعي، وبالتالي توفير توجهات جديدة لتطوير تفسيرات أفضل.