تشهد الأبحاث في مجال الذكاء الاصطناعي تقدمًا ملحوظًا، حيث أظهرت نماذج اللغات الضخمة (Large Language Models) قدرات كبيرة في مجال البرهنة الرسمية. رغم ذلك، لا يزال تحقيق الأداء الأفضل يتطلب موارد حسابية هائلة خلال فترة الاختبار، مما يضع تحديات كبيرة أمام المطورين.
رحب الباحثون بتقديم إطار عمل مبتكر يحمل اسم "التعلم من أجل التحسين" (Learning-to-Refine) الذي يستغل الهيكل المعلوماتي في عملية التحقق الرسمي. الفكرة الأساسية هي أن المترجمات تكشف عن مجموعة هائلة من محاولات البرهنة، لكنها تضغط هذه المحاولات إلى مجموعة مضغوطة من أوضاع الفشل المنظمة.
يُعتمد على البحث الشجري لتصحيح الأخطاء محليًا بناءً على التغذية الراجعة من المدققين، مما يسهل تجنب تكاليف تجميع تاريخ طويل من محاولات البرهنة.
وتظهر نتائج التجارب أن هذه الطريقة تعزز باستمرار القدرات الاستدلالية للمبرهنات الأساسية عبر مقاييس مختلفة. وقد أظهرت هذه التقنية أداءً رائدًا في احتساب PutnamBench مع نماذج تبلغ حوالي 8 مليارات و 32 مليار معامل، مما يفتح أفقًا واسعًا لأساليب التفكير المدعومة من المدققين في الأجيال المقبلة.
ثورة في البرهنة الرسمية: كيف تعزز محركات المعالجة اللغوية أداء المبرهنات؟
تسعى الأبحاث الجديدة إلى معالجة نقاط الضعف في قدرة محركات البرهنة الرسمية من خلال استغلال هيكل معلوماتي في التحقق الرسمي. بما يسهل اكتشاف الأخطاء ويعزز كفاءة عمليات البرهنة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
