تُعد النماذج اللغوية الضخمة (Large Language Models) واحدة من أبرز الابتكارات في مجال الذكاء الاصطناعي، ولكنّها تواجه تحديات عندما يتعلق الأمر بالتفكير المنطقي حول الشيفرات البرمجية. غالباً ما تعتمد تقنيات التدريب الحالية على بيانات تُشابه في ظاهرها الإجابات الصحيحة، لكن دون أن تكون فعليًا مشروعة أو قابلة للتحقق.
في إطار بحث جديد، تم تطوير نظام يهدف إلى تجاوز هذا القصور من خلال إنشاء تسلسلات عقلية قابلة للتحقق باستخدام سلاسل التنفيذ. يتضمن هذا النظام تحويل شيفرات البرمجة إلى نصوص واضحة يمكن تدقيقها، مما يسهل على النماذج تعلم الأنماط المنطقية الصحيحة. تمت معالجة وتجربة ما يصل إلى 54,000 تفسير موثوق، مما يتيح للنماذج فهم البيانات بشكل أكثر دقة وتحسّن النتائج.
أظهرت التجارب تحسناً ملحوظاً في أداء النماذج المدربة على بيانات موثوقة، حيث حققت زيادة تصل إلى +26.6 على LiveCodeBench-Exec، و+22.2 على CruxEval، و+19.5 على HumanEval. هذه النتائج تشير بقوة إلى أن جودة التحقق تساهم بشكل مباشر في تحسين قدرة نماذج الذكاء الاصطناعي على التفكير المنطقي وتوليد الأكواد.
تُعتبر هذه التقنية فتحاً علمياً جديداً، حيث نجد أن بناء هيكلية موثوقة ومدعومة بتسلسلات التنفيذ يمثل خطوة حقيقية نحو الوصول لنماذج ذكاء اصطناعي أكثر دقة واستدامة. يمكن للجميع الاطلاع على تفاصيل هذا النظام من خلال المصدر المفتوح المتاح على GitHub.
ثورة في تقنيات الذكاء الاصطناعي: سلسلة عقلية قابلة للتحقق من سلاسل التنفيذ!
في خطوة مبتكرة، تم تطوير نظام يولد تسلسلات عقلية قابلة للتحقق من سلاسل التنفيذ لتعزيز قدرات نماذج الذكاء الاصطناعي. نتائج هذا النظام تعد بنجاحات ملحوظة في تحسين المنطق البرمجي وكفاءات النموذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
