في السنوات الأخيرة، شهد مجال توصيات الذكاء الاصطناعي نمواً ملحوظاً بفضل استخدام نماذج اللغة الكبرى (Large Language Models - LLMs). تعتمد العديد من الطرق المتبعة على التدريب الدقيق الموجه (Supervised Fine-Tuning - SFT) لتكييف نماذج LLMs مع سيناريوهات التوصيات، وكذلك على تقنية بحث الحزم (Beam Search) أثناء الاستدلال لاسترجاع أعلى
$B$ من العناصر الموصى بها بكفاءة.
ومع ذلك، تم تحديد مشكلة حيوية تتمثل في عدم التوافق بين التدريب والاستدلال؛ حيث يقوم SFT بتحسين الاحتمالات الإجمالية للعناصر الإيجابية، لكنه لا يضمن استرجاع هذه العناصر بواسطة بحث الحزم، حتى وإن كانت تمتلك احتمالات عالية. وبسبب آلية التقليم الجشع (Greedy Pruning)، يمكن أن يتم إهمال عنصر إيجابي بمجرد أن تكون احتمالية بادئته غير كافية.
للتغلب على هذه المشكلة، تم اقتراح BEAR (Beam-SEarch-Aware Regularization)، وهو هدف تدريب مبتكر يأخذ بعين الاعتبار سلوك بحث الحزم أثناء التدريب. بدلاً من محاولة محاكاة بحث الحزم لكل حالة أثناء التدريب—وهو أمر يتطلب موارد حسابية كبيرة—يفرض BEAR شرطاً ضرورياً مخففاً: يجب أن يكون كل رمز في عنصر إيجابي ضمن أعلى
$B$ من الرموز المرشحة في كل مرحلة من مراحل الفك.
يقلل هذا الهدف من خطر التقليم الخاطئ بينما يتسبب في عبء حسابي ضئيل مقارنةً بـ SFT القياسي. أظهرت التجارب الواسعة عبر أربع مجموعات بيانات عالمية أن BEAR يتفوق بشكل ملحوظ على أساليب الأساسية القوية. يمكن الوصول إلى التعليمات البرمجية عبر الرابط: [https://github.com/Tiny-Snow/BEAR-SIGIR-2026].
ما رأيكم في هذه التطورات المثيرة؟ شاركونا في التعليقات!
BEAR: ثورة في تحسين التوصيات باستخدام نماذج اللغة الكبرى!
تقديم BEAR، أسلوب مبتكر لتحسين عمليات توصية الذكاء الاصطناعي، الذي يفكر في سلوك بحث الحزم أثناء التدريب. نتائج التجارب تشير إلى تفوقه على الطرق التقليدية بشكل ملحوظ.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
