في عالم الذكاء الاصطناعي، خصوصًا في نماذج اللغات الضخمة (Large Language Models)، تبرز سلاسل التفكير (Chain-of-Thought) كأداة قوية تهدف إلى تعزيز قدرة الأنظمة على تقديم إجابات دقيقة. ولكن ماذا يحدث عندما تفشل هذه السلاسل في تحقيق نتائج مرضية؟ دراسة حديثة تقدم لنا إجابات مثيرة حول هذا التساؤل.
في تحليل ميكانيكي سببي جديد تم تطبيقه على مجموعة بيانات GSM8K، تم استخدام تقنية «ترقيع تنشيط التوكن» (activation patching) لنقل الحالات المخفية (hidden states) من عملية توليد سلاسل التفكير إلى سيناريو الإجابة المباشرة عن نفس السؤال. النتائج كانت مثيرة للإعجاب: تحقق الدقة النهائية للإجابات التي تم إنتاجها بعد تطبيق الرقعة (patching) كانت أعلى بكثير من نتائج سلاسل التفكير الأصلية، مما يثبت أن المعلومات المهمة يمكن أن توجد في تفاصيل سلاسل التفكير، حتى عندما تفشل هذه السلاسل في البداية.
كما أظهرت الدراسة أن المعلومات ذات الصلة بالمهام كانت أكثر وفرة في سلاسل التفكير الصحيحة مقارنة بالتي كانت غير صحيحة، وأن توزيع هذه المعلومات كان غير متساوٍ عبر التوكنات (tokens)، حيث تجمع في الطبقات المتوسطة والمتأخرة. والمثير للدهشة، أن ترقيع التوكنات اللغوية مثل الأفعال والكيانات تحمل معلومات حلّ المهام وتوجه العملية نحو التفكير الصحيح. بينما التوكنات الرياضية تميل إلى تقديم محتوى قريب من الإجابة ولكنه نادرًا ما ينجح في تقديم الحلول المطلوبة.
تظهر النتائج أيضًا أن المخرجات المرقعة غالبًا ما تكون أقصر ومع ذلك تتجاوز دقتها دقة سلاسل التفكير الكاملة، مما يشير إلى أن وجود سلاسل تفكير كاملة ليس دائمًا ضروريًا. معًا، تقدم هذه النتائج نظرة جديدة حول كيفية تمثيل التفكير ومكان تعثره، مما يفتح آفاقًا جديدة لدراسة الذكاء الاصطناعي وكيفية تحسينه.
كيف يمكن أن تكون حالة الفشل في سلاسل التفكير (CoT) بابًا لحل الألغاز المخفية؟
درس جديد يكشف أن المعلومات المخفية في سلاسل التفكير تكشف لنا طرق جديدة للحصول على إجابات صحيحة. تشير النتائج إلى أن الحلول قد تكون مختبئة في التفاصيل الدقيقة لذلك يجب علينا إعادة التفكير في كيفية استخدام هذه السلاسل.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
