مع تزايد حجم وتعقيد أنظمة الذكاء الاصطناعي (AI)، تزداد كذلك صعوبة السعي نحو تحقيق الشفافية في هذه الأنظمة. فمع وجود نماذج ضخمة وأنظمة معقدة، يبقى التساؤل: لماذا نحتاج لشرح الذكاء الاصطناعي، وما الذي يجب أن نشرحه؟ تلعب الشروحات دورًا هامًا في تعزيز التعلم، وقد اعتمد البشر وما زالوا يعتمدون عليها لفهم تعقيدات الحياة اليومية.

في هذه الورقة، نستعرض كيف يمكن دمج نظريات التعلم في دورة حياة الذكاء الاصطناعي القابل للتفسير (XAI)، مع التركيز على الفرص والتحديات المرتبطة بتبني نهج يركز على المتعلم. من خلال بناءً على الأعمال السابقة، نقترح أن اتباع نهج يركز على المتعلم في الذكاء الاصطناعي القابل للتفسير يمكن أن يعزز من فاعلية الأفراد ويخفف من المخاطر المرتبطة بالذكاء الاصطناعي، مما يساعد على تطوير ممارسات الذكاء الاصطناعي المدعوم بالإنسان بشكلٍ أفضل.

إن التحدي الرئيس يكمن في كيفية فهم الأنظمة الذكية والتفاعل معها بشكل يمكن أن نثق فيه. وبتطبيق نظريات التعلم، يمكننا تحسين الشفافية وتعزيز ثقة المستخدمين في الذكاء الاصطناعي، مما يساهم في تحقيق نتائج إيجابية في مختلف المجالات.