في مجال الأسئلة الواقعية، يواجه العديد من الأنظمة تحديات ليست مرتبطة بعدم الوصول إلى المعلومات المطلوبة، وإنما بفشل التزامها بالإجابات الصحيحة. في هذه السياق، تم تقديم تقنية جديدة يُطلق عليها CounterRefine، والتي تعمل كطبقة إصلاح خفيفة في وقت الاستنتاج لتحسين دقة الإجابات.
تقوم CounterRefine أولاً بإنتاج إجابة قصيرة باستخدام الأدلة المسترجعة، ثم تجمع المزيد من الدعم والأدلة المتعارضة من خلال استفسارات تابعة تعتمد على تلك الإجابة الأولية. وفي النهاية، تطبق تقنية تصحيح محدودة تُخرج إما KEEP أو REVISE، حيث يتم قبول التعديلات المقترحة فقط إذا اجتازت تحققًا حتميًا.
تعمل هذه التقنية على تحويل عملية الاسترجاع من مجرد جمع معلومات إلى آلية لاختبار إجابة مؤقتة. وقد أظهرت النتائج على معيار SimpleQA الكامل أن CounterRefine تُحسن الأداء بمعدل 5.8 نقاط مقارنة بنموذج GPT-5 Baseline-RAG، حيث تصل إلى معدل إتقان يبلغ 73.1%. كما تجاوزت النتيجة المبلغ عنها لنموذج GPT-5.4 بأكثر من 40 نقطة.
تشير هذه النتائج المهمة إلى اتجاه بسيط ولكن حيوي لنماذج الذكاء الاصطناعي، حيث يجب أن تكون قادرة على استخدام الأدلة ليس فقط للوصول إلى المعلومات، بل أيضًا لإعادة النظر فيها وإصلاح إجاباتها عند الضرورة.
CounterRefine: الحل الثوري لإصلاح الإجابات الخاطئة في الأسئلة الواقعية!
تقدم CounterRefine طبقة إصلاح خفيفة في وقت الاستنتاج لتحسين دقة الإجابات المستندة إلى الاسترجاع. تحقق هذه التقنية تحسناً كبيراً في معدل الدقة، مما يعزز قدرة نماذج الذكاء الاصطناعي على تصحيح إجاباتها.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
