تشهد نماذج اللغة الكبيرة القائمة على الانتشار (Diffusion Large Language Models - dLLMs) تحولات جذرية في طريقة معالجة المعلومات وإنتاج النصوص. لكن تبقى مسألة التحقق من صحة النتائج التي تنتجها هذه النماذج عبر مسارات منطقية صحيحة تحدياً ملحاً. في هذا البحث، تم اقتراح منظور هندسي جديد يسمى "التفكير على المنحنى".

يفترض الباحثون أن المسارات الصحيحة في التوليد تستقر كنقاط جذب ثابتة على المنحنى ذي الكثافة العالية للبيانات المدروسة، بينما تتحرك المسارات غير الصحيحة بعيداً عنها. لتحقيق ذلك، تم تقديم مقياس جديد يدعى "تناسق المنحنى الثنائي الاتجاه" (Bidirectional Manifold Consistency - BMC)، والذي يعد مقياساً غير خاضع للتدريب ويعمل بشكل عشوائي، يقوم بقياس استقرار السلاسل المنتجة من خلال دورة من التعتيم الأمامي وإعادة البناء الخلفي.

تظهر النتائج أن تقنية BMC تتمتع بمرونة فائقة عبر مختلف مراحل التفكير:
1. في مرحلة التشخيص، تعمل كمميز قوي لصحة الحلول دون الحاجة إلى إجابة صحيحة سابقة
2. في مرحلة الاستدلال، تمكن إعادة عينة الرفض لتركيز الموارد الحاسوبية على المهام المعقدة
3. في مرحلة المحاذاة، تعتبر كمكافأة هندسية كثيفة تحول الإشراف النادر على النتائج إلى توجيه دقيق، مما يمكن النماذج من التطور الذاتي وما وراء المعايير التقليدية.

تؤكد النتائج أن الاستقرار الهندسي الداخلي يعد مؤشراً موثوقاً للصحة في نماذج اللغة الكبيرة، مما يفتح آفاق جديدة لتحسين أداء الذكاء الاصطناعي.