في عالم نماذج الذكاء الاصطناعي، لا تقتصر الأسئلة على "هل الجواب صحيح؟" بل تمتد إلى "لِمَ كان هذا الجواب صحيحاً؟". حدد الباحثون في دراسة جديدة أن نماذج اللغات الضخمة (Large Language Models) تميل أحياناً للإجابة على الأسئلة السببية للأسباب الخاطئة، عن طريق الاعتماد على اختصارات ارتباطية مثل P(Y|X) بدلاً من الاستفسار التدخلي P(Y|do(X)).
التقنيات الحالية في التعلم المعزز (Reinforcement Learning) تركز على مكافأة ما تقدمه النماذج من إجابات، دون النظر إلى الأسباب التي أدت إلى تلك الإجابات. هذا الوضع يمكن أن يؤدي إلى تعزيز هذه الاختصارات حتى يظهر التحول في التوزيع.
لذا، قدم الباحثون مفهوم "تقليل الندم المعرفي" (Epistemic Regret Minimization) كإطار عمل يكشف عن عيوب التفكير السببي بناءً على تتبع التفكير، دون الاعتماد على تسميات حقيقية. لقد تم اختبار هذه الفكرة على مجموعة بيانات CausalT5K المكونة من 1,360 حالة، ووجد أن النماذج انقسمت إلى نوعين: نماذج متوافقة يمكنها تحقق الإجابات الصحيحة عبر تجديد النتائج فقط، وأخرى تعتمد على التفكير التحليلي، مثل GPT-4 Turbo وGPT-5.2، التي لم تستجب لتصحيح النتائج فقط ولكنها كانت متفاعلة بشكل كبير مع نقد الفكر السببي المستهدف من ERM.
أجريت تجارب إضافية على 4,054 سيناريو للتحقق من أن المحتوى السببي، وليس هيكل الإرشاد فقط، هو ما يدفع التصحيح للنماذج العنيدة. بالإضافة إلى ذلك، تم توسيع فكرة ERM لتشمل التعلم المعزز عبر الحلقات، حيث تتجمع الأدلة التدخلية لتصبح إشارة مكافأة لمشاكل المجال المفتوح التي تفتقر إلى محققين حقيقيين.
تظهر تجارب أولية على أربعة نماذج لغات ضخمة أن مكافأة المعرفة تحمل إشارة حيث لا تفعل مكافأة النتائج، مما يقيم وجود الإشارة دون تحسين السياسات بعد. إن هذه الدراسة تمثل خطوة مهمة نحو فهم كيفية تصحيح الأخطاء في نماذج الذكاء الاصطناعي وتعزيز قدرات التفكير السببي لديها. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
كيف يمكن للذكاء الاصطناعي تصحيح أخطاء التفكير السببي؟ دراسة جديدة تكشف عن آلية مثيرة!
تقدم دراسة مبتكرة مفهوم "تقليل الندم المعرفي" (Epistemic Regret Minimization) للكشف عن أخطاء التفكير السببي في نماذج اللغات الضخمة. هذا النهج يعد بتطوير أساليب التعلم المعزز (Reinforcement Learning) نحو تحسين دقة النتائج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
