في عالم الذكاء الاصطناعي، تعتبر نماذج اللغات الضخمة (Large Language Models) وسيلة قوية ولكن لا تخلو من تحدياتها، خاصةً فيما يتعلق بالهلوسات. الهلوسات هي تلك الإجابات غير الدقيقة أو غير المرتبطة بالسياق التي قد تنتجها هذه النماذج عند مواجهة أسئلة تتجاوز معرفتها. ولحسن الحظ، يقدم الباحثون في الدراسة الحديثة KARL حلاً مبتكرًا لمشكلة الهلوسات من خلال تحسين آلية امتناع النماذج عن الإجابة عندما لا تملك المعرفة الكافية.
يعمل نظام KARL على مواءمة سلوك الامتناع للنموذج مع حدود معرفته المتطورة باستخدام طريقتين رئيسيتين. الأولى هي "مكافأة واعية لحدود المعرفة" والتي تقوم بتقدير حدود المعرفة بشكل ديناميكي أثناء التشغيل، مما يسمح بمكافأة الإجابات الصحيحة أو السلوك الموجه نحو الامتناع. أما الثانية، فهي استراتيجية التدريب الثنائية التي تهدف في بدايتها إلى استكشاف حدود المعرفة وتجنب "فخ الامتناع"، ثم تحويل الإجابات الخاطئة إلى امتناعات بدون المساس بالدقة.
أظهرت التجارب الواسعة على مجموعة متنوعة من المعايير أن نظام KARL يحقق توازنًا رائعًا بين الدقة وتقليل الهلوسات، مما يسهم في تعزيز فعالية نماذج اللغات الضخمة في مواقف مختلفة سواء داخل أو خارج نطاق التوزيع. بهذه الطريقة، تسهم KARL في ضمان موثوقية هذه النماذج في تقديم معلومات دقيقة ومتسقة، مما يفتح آفاق جديدة لاستخدام تكنولوجيا الذكاء الاصطناعي في مجالات متعددة.
KARL: ثورة في تقليل الهلوسات في نماذج اللغات الضخمة!
تقدم KARL إطار عمل جديد يعمل على تحسين سلوك نماذج اللغات الضخمة في تجنب الإجابات الخاطئة. يتميز هذا النظام بالتوازن بين الدقة وتقليل الهلوسات بشكل فعال.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
