تعتبر مشكلة الهلوسة (hallucination) من التحديات الكبيرة التي تواجه نماذج اللغة الضخمة (Large Language Models) عند توليد نصوص طويلة. حيث إن أساليب التعلم المعزز من ردود الفعل البشرية (Reinforcement Learning from Human Feedback - RLHF) غالباً ما تتجاهل الحدود المعرفية للنماذج، مما يؤدي إلى إنتاج معلومات غير موثوقة. في هذا السياق، يقدم البحث الجديد الذي تم ذكره في arXiv إطار التعلم المعزز لتعزيز التناسق المعرفي، المعروف بـ KLCF.
يعتبر KLCF إعادة نظر في هذه المشكلة من ناحية توافق التوزيع. حيث يعيد تشكيل دقة المعلومات الطويلة كهدف لمطابقة التوزيع بين معرفة النموذج المعبر عنها ومعرفة النموذج الأساسي. هذا يتطلب التأكد من أن التوليد لا يتجاوز مجموعة المعرفة الأساسية، حيث يهدف إلى زيادة تغطية الحقائق ذات الاحتمالية العالية.
لتنفيذ ذلك، تم تصميم آلية مواءمة الحقائق المزدوجة، التي تقارب مصطلح الاسترجاع باستخدام قائمة تحقق من الحقائق تستند إلى عينة مأخوذة من النموذج الأساسي، وتقييد الهلوسات باستخدام نموذج مكافأة خفيفة القوام. يتيح ذلك تحسين مكونات النظام بشكل مشترك دون الحاجة إلى استرجاع خارجي أثناء التدريب.
أظهرت النتائج التجريبية أن KLCF يعزز بانتظام مقاييس الدقة على العديد من المعايير الطويلة النطاق، مما يساعد بفعالية في تخفيف الهلوسة والإفراط في الحذر مع الحفاظ على الكفاءة وقابلية التوسع. هذا التطور يمثل خطوة مهمة نحو تحسين دقة المعلومات المقدمة من قبل نماذج اللغة الضخمة، مما يفتح المجال لتطبيقات أكثر ذكاءً ومصداقية في مختلف المجالات.
منع الهلوسة في نماذج اللغة: كيف يعزز التعلم الآلي التناسق المعرفي!
تعاني نماذج اللغة الضخمة (LLMs) من مشكلة الهلوسة أثناء توليد المحتوى الطويل. يقدم البحث الجديد إطار التعلم المعزز لتعزيز التناسق المعرفي الذي يعمل على تحسين دقة المحتوى وتقليل الأخطاء بشكل فعال.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
