في عالم الذكاء الاصطناعي، تعتبر نماذج التفكير الضخمة (Large Language Models) حجر الزاوية في تطوير تقنيات تحليل البيانات وصياغة النصوص. لكن، كيف يمكن تحسين دقة هذه النماذج، خاصةً عند اعتمادها على خطوات تفكير قد تكون غير موثوقة؟
أظهرت الأبحاث الأخيرة أن العديد من هذه النماذج تصل إلى استنتاجات صحيحة، إلا أن المسارات المنطقية التي تتبعها قد تكون مليئة بالأخطاء، مما يؤدي إلى فقدان الثقة في النتائج النهائية. ولحلّ هذه المشكلة، يتم تقديم تقنية جديدة تُعرف بـ CASPO (Confidence-Aware Step-wise Preference Optimization)، والتي تهدف إلى تحسين توافق الثقة على مستوى الرموز مع صحة الخطوات المنطقية.
تعتمد تقنية CASPO على عملية تكرارية تُعرف باسم Direct Preference Optimization، مما يلغي الحاجة إلى نموذج مكافأة خارجي ويجعل العمليات أكثر كفاءة. وعند استخدام CASPO في مرحلة الاستنتاج، يتم تطبيق تقنية تُسمى Confidence-aware Thought (CaT)، والتي تعتمد على تقييم ثقة النموذج في كل خطوة، مما يمكنه من تقليم المسارات غير المؤكدة بفعالية.
أظهرت التجارب التي أُجريت عبر عشرة معايير مختلفة، وفي عدد من عائلات النماذج، أن CASPO نجحت في تعزيز موثوقية التفكير وكفاءة الاستنتاج. ليس ذلك فحسب، بل استطاعت هذه التقنية التكيف مع نموذج Qwen3-8B-Base وتجاوزت المعايير التقليدية المعتمدة في AIME'24 وAIME'25، كل ذلك دون الاعتماد على بيانات نموذج المكافأة.
من الجدير بالذكر أن الباحثين قاموا بإصدار مجموعة بيانات خطوة بخطوة تحتوي على تعليقات حول الثقة، لدعم التحليل الدقيق للموثوقية في عمليات التفكير.
لمعرفة المزيد حول تقنية CASPO وطرق استخدامها، يمكنكم زيارة [رابط الكود المتاح على GitHub](https://github.com/Thecommonirin/CASPO).
ثورة في دقة التفكير: تقنية CASPO لتعزيز موثوقية نماذج الذكاء الاصطناعي!
تقدم تقنية CASPO خطوة جديدة نحو تعزيز موثوقية نماذج التفكير الضخمة (LLMs)، من خلال تقنيات تصحيح الأزمنة وبناء الثقة. نتائج التجارب تدعم كفاءتها في تحسين دقة النتائج وسرعة الاستنتاج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
