أصبح تعزيز النماذج اللغوية الكبيرة (Large Language Models) بمعلومات خارجية عبر استراتيجية الاسترجاع المعززة بالجيل (Retrieval-Augmented Generation) الأسلوب الشائع لتحسين دقة وواقعية هذه النماذج. ومع ذلك، تعتمد الأنظمة الحالية على توليد استفسارات باللغة الطبيعية في كل خطوة، وتحافظ على فصل صارم بين مرحلة الاسترجاع ومرحلة التوليد، مما يمنعها من استغلال كامل القدرات التمثيلية للنموذج.

هنا تظهر أهمية إطار LAnR (Latent Abstraction for Retrieval-Augmented Generation)، حيث يجمع بين العمليات الثلاث - الترميز، الاسترجاع، والتوليد - في مساحة كامنة واحدة. بدلاً من توليد استفسارات نصية، يقوم LAnR بإنتاج متجهات استرجاع كثيفة من الحالات الخفية لرمز مخصص، ويستخدمها لمطابقة تمثيلات الوثائق المرمزة من نفس النموذج.

علاوة على ذلك، يقرر LAnR بشكل تلقائي متى يكون قد تم استرجاع أدلة كافية باستخدام رأس تحكم خفيف الوزن (MLP) على تلك الحالات الخفية، مما يلغي الحاجة إلى مرحلة الاسترجاع المنفصلة والتفكير بشأن التوقف على مستوى الرموز. وقد تم تحفيز هذا التصميم من خلال الملاحظة التجريبية بأن انتروبيا رموز الإجابة تدل بشكل موثوق على كفاية الاسترجاع.

أظهرت تجارب موسعة على ستة اختبارات جودة (QA) تغطي إعدادات متعددة الخطوات أن LAnR متفوق على الطرق الحالية للاسترجاع المعزز بالجيل، محققًا كفاءة أعلى في الاستدلال من خلال تقليل عدد استدعاءات الاسترجاع وسرعة تكامل النموذج.