في عالم الذكاء الاصطناعي، يتطلب التحقق من الحقائق متعددة الخطوات (Multi-Hop Fact Verification) استخدام قدرات استنتاجية معقدة تتجاوز الأدلة المتباينة، وهو ما يعد تحديًا كبيرًا لنماذج اللغة الكبيرة (Large Language Models) التي غالبًا ما تعاني من توقعات غير دقيقة وسلاسل منطقية متقطعة. على الرغم من أن الطرق الحالية قد حسنت الشفافية من خلال استراتيجيات التفكير المتسلسل (Chain-of-Thought)، إلا أنها تفتقر إلى نمذجة واضحة للاعتمادات السببية بين الأدلة والادعاءات.
في هذا السياق، نقدم إطار عمل مبتكراً يربط الاستدلال بنموذج سببي هيكلي (Structural Causal Model)، ويعتبر التحقق عملية استنتاج سببي بناء. لقد قمنا بدراسة تجريبية للكشف عن علاقة “على شكل حرف U مقلوب” بين طول سلسلة الاستدلال والدقة، والتي تظهر أن التعقيد الهيكلي المفرط يُضعف الأداء.
لمعالجة هذا التفوق في التعقيد، نقترح استراتيجية تعتمد على التعلم المعزز القائم على القواعد باستخدام تحسين السياسة النسبية الجماعية (Group Relative Policy Optimization). يتيح هذا النهج تحسين التوازن بين العمق الهيكلي والإيجاز.
تظهر التجارب الواسعة التي أجريناها على منصات HoVer وEX-FEVER أن إطار عمل SCM-GRPO الخاص بنا يتفوق بشكل كبير على الأساليب الحالية الرائدة، مقدماً حلاً موثوقًا وسهل الفهم للتحقق المعقد من الحقائق. هل أنتم مستعدون لاستكشاف هذه الابتكارات الجديدة في عالم الذكاء الاصطناعي؟
ثورة جديدة في التحقق من الحقائق: نماذج سببية تعيد صياغة التفكير المنطقي!
تقدم دراسة جديدة إطار عمل مبتكراً يستخدم نماذج سببية هيكلية لتحسين دقة التحقق من الحقائق المعقدة. هذا الإطار يعدّ بكونه حلاً موثوقًا للتغلب على التحديات الحالية التي تواجه نماذج اللغة الكبيرة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
