تلقت نماذج اللغات الضخمة (Large Language Models) اهتماماً كبيراً في السنوات الأخيرة، لكن لا تزال تواجه مشكلة تقديم إجابات واثقة رغم كونها خاطئة أحياناً، مما يتسبب في عواقب وخيمة على التطبيقات الواقعية. في دراسة جديدة، تم توجيه الأنظار نحو إمكانية تعليم هذه النماذج كيفية التعبير عن عدم اليقين في إجاباتها، وذلك كوسيلة لتحسين دقة الأداء.

تكمن الفكرة الأساسية في كيفية تعريف إشارة عدم اليقين: هل يجب أن تُظهر هذه الإشارة أثناء عملية الاستدلال، أو في نهايتها؟ تبحث الدراسة في كلتا الحالتين، فقد تم تدريب النماذج على قياس مستوى الثقة في إجاباتها، بحيث تكون الثقة مرتفعة في الإجابات الصحيحة ومنخفضة في الخطأ. كما تم تطوير آلية لتوقيت إظهار هذه الثقة، مما يتيح وجود علامة واضحة تظهر في لحظات التفكير التي قد تكون غير موثوقة.

أظهرت النتائج المبدئية تحسناً ملحوظاً في جودة الإجابات وتقليص الأخطاء المرتبطة بالثقة الزائدة. حيث يمكن استخدام هذه التحسينات كعوامل محفزة لتوليد إجابات معززة (Retrieval Augmented Generation - RAG)، مما يساعد على تحسين النتيجة النهائية.

عند تحليل الآليات الداخلية، تبيّن أن التعبير عن الثقة في نهاية عملية الاستدلال يعمل على تحسين الهيكل المتعلق بالثقة الموجود أصلاً في النموذج المدرب مسبقاً، بينما تعليم النماذج كيف تعبر عن خطوات الاستدلال عالية المخاطر يساعد على ضبط آلية التعرف على الثقة في مراحل متقدمة.

إجمالاً، يبدو أن اعتماد نماذج الذكاء الاصطناعي على التعبير عن عدم اليقين يمكن أن يقود إلى تحسينات جوهرية في تطبيقاتها، مما يشكّل خطوة مهمة نحو تحقيق المزيد من الأمان والموثوقية في استخدام هذه التقنية الرائدة.