في عالم الذكاء الاصطناعي، تلعب نماذج اللغات الضخمة (Large Language Models) دوراً حيوياً في تعزيز التفاعل والتفاهم بين البشر والآلات. ومع ذلك، تحدث أحياناً حالة فشل حيث تستند هذه النماذج إلى معرفة تُكتسب فيما بعد، مما يُفسد عمليات التفكير الزمني.

تكشف دراسة حديثة عن هذا العيب، حيث يُظهر البحث كيفية تعليم هذه النماذج التفكير وفقاً لمفهوم “التفكير الزمني المسبق” (ex-ante reasoning). من خلال تحليل شامل لتدخلات في مستوى التعليمات، تبيّن أنه يمكن توجيه النماذج بشكل أكثر فعالية عند استخدام عبارات قطعية وضوابط زمنية. فعند وضع قيود زمنية في بداية التعليمات (prefix constraints)، تنخفض نسبة تسرب المعلومات بشكل كبير مقارنة بتلك الموضوعة في نهايتها (suffix constraints).

تؤكد النتائج أن توجيه النماذج يمكن أن يُدخلها في إطار زمني معين، لكن ذلك لا يمنحها القدرة على التحقق مما إذا كانت الإجابات تتفق مع الشروط الزمنية. من هنا، تظهر الحاجة إلى إطار جديد يُعرف باسم “إطار تحسين النقد الزمني” (Temporal Critique Fine-Tuning - TCFT) الذي يعزز قدرة النماذج على التحقق من المعلومات بناءً على توقيتها.

يعمل هذا الإطار على تعليم النموذج كيفية التعرف على تسرب المعلومات بعد الخط الزمني المحدد، وتفسير انتهاكات الحدود الزمنية، وتقييم مدى صحة المعلومات زمنياً. تؤكد التجارب التي أُجريت مع نماذج Qwen2.5-7B-Instruct وQwen2.5-14B-Instruct أن TCFT يحقق أداءً متفوقاً في تقليل نسبة التسرب بمتوسط يصل إلى 41.89 و37.79 نقطة مئوية على التوالي.

مع تطور هذه التكنولوجيا، يبقى السؤال: كيف سيكون تأثير هذه الإنجازات على مستقبل الذكاء الاصطناعي؟