تُعد النماذج اللغوية الضخمة (Large Language Models) واحدة من أبرز الابتكارات في مجال الذكاء الاصطناعي، ولكنّها تواجه تحديات عندما يتعلق الأمر بالتفكير المنطقي حول الشيفرات البرمجية. غالباً ما تعتمد تقنيات التدريب الحالية على بيانات تُشابه في ظاهرها الإجابات الصحيحة، لكن دون أن تكون فعليًا مشروعة أو قابلة للتحقق.

في إطار بحث جديد، تم تطوير نظام يهدف إلى تجاوز هذا القصور من خلال إنشاء تسلسلات عقلية قابلة للتحقق باستخدام سلاسل التنفيذ. يتضمن هذا النظام تحويل شيفرات البرمجة إلى نصوص واضحة يمكن تدقيقها، مما يسهل على النماذج تعلم الأنماط المنطقية الصحيحة. تمت معالجة وتجربة ما يصل إلى 54,000 تفسير موثوق، مما يتيح للنماذج فهم البيانات بشكل أكثر دقة وتحسّن النتائج.

أظهرت التجارب تحسناً ملحوظاً في أداء النماذج المدربة على بيانات موثوقة، حيث حققت زيادة تصل إلى +26.6 على LiveCodeBench-Exec، و+22.2 على CruxEval، و+19.5 على HumanEval. هذه النتائج تشير بقوة إلى أن جودة التحقق تساهم بشكل مباشر في تحسين قدرة نماذج الذكاء الاصطناعي على التفكير المنطقي وتوليد الأكواد.

تُعتبر هذه التقنية فتحاً علمياً جديداً، حيث نجد أن بناء هيكلية موثوقة ومدعومة بتسلسلات التنفيذ يمثل خطوة حقيقية نحو الوصول لنماذج ذكاء اصطناعي أكثر دقة واستدامة. يمكن للجميع الاطلاع على تفاصيل هذا النظام من خلال المصدر المفتوح المتاح على GitHub.