في عالم الذكاء الاصطناعي، تعتبر نماذج اللغات الضخمة (Large Language Models) وسيلة قوية ولكن لا تخلو من تحدياتها، خاصةً فيما يتعلق بالهلوسات. الهلوسات هي تلك الإجابات غير الدقيقة أو غير المرتبطة بالسياق التي قد تنتجها هذه النماذج عند مواجهة أسئلة تتجاوز معرفتها. ولحسن الحظ، يقدم الباحثون في الدراسة الحديثة KARL حلاً مبتكرًا لمشكلة الهلوسات من خلال تحسين آلية امتناع النماذج عن الإجابة عندما لا تملك المعرفة الكافية.

يعمل نظام KARL على مواءمة سلوك الامتناع للنموذج مع حدود معرفته المتطورة باستخدام طريقتين رئيسيتين. الأولى هي "مكافأة واعية لحدود المعرفة" والتي تقوم بتقدير حدود المعرفة بشكل ديناميكي أثناء التشغيل، مما يسمح بمكافأة الإجابات الصحيحة أو السلوك الموجه نحو الامتناع. أما الثانية، فهي استراتيجية التدريب الثنائية التي تهدف في بدايتها إلى استكشاف حدود المعرفة وتجنب "فخ الامتناع"، ثم تحويل الإجابات الخاطئة إلى امتناعات بدون المساس بالدقة.

أظهرت التجارب الواسعة على مجموعة متنوعة من المعايير أن نظام KARL يحقق توازنًا رائعًا بين الدقة وتقليل الهلوسات، مما يسهم في تعزيز فعالية نماذج اللغات الضخمة في مواقف مختلفة سواء داخل أو خارج نطاق التوزيع. بهذه الطريقة، تسهم KARL في ضمان موثوقية هذه النماذج في تقديم معلومات دقيقة ومتسقة، مما يفتح آفاق جديدة لاستخدام تكنولوجيا الذكاء الاصطناعي في مجالات متعددة.