في عالم الذكاء الاصطناعي، تبقى نماذج اللغة الكبيرة (LLMs) في طليعة التطورات التكنولوجية، لكن تأتي التحديات مع نوعية المهام المتخصصة. حيث يسمح نموذج التنبؤ بالتوكن التالي (Next Token Prediction) للنماذج بالتعبير عن معرفتها الذاتية، إلا أن طبيعته التسلسلية تحد من أداء هذه النماذج في المهام غير التوليدية.

تكمن المشكلة في الآلية التي تعبر بها LLMs عن معرفتها، وليس في قدرتها على اكتساب المعرفة. لمواجهة هذه العقبة، تم إدخال طريقة جديدة تعرف باسم Self-Knowledge Re-expression (SKR). هذه الطريقة تمثل تقنية مبتكرة لتحسين أداء LLMs بفاعلية ودون الحاجة إلى إشراف بشري أو تنقية النماذج.

تعمل SKR على تحويل إنتاج النموذج من توليد التوكنات العامة إلى تعبيرات محددة للمهام، مما يؤدي إلى تحسين ملحوظ في الأداء. في تجاربنا الأخيرة على مجموعة بيانات وثائق مالية كبيرة، أظهرت النتائج تحسناً يفوق 40% في مقياس Recall@1 لمهام استرجاع المعلومات، مع تقليص زمن استجابة اكتشاف الكائنات بأكثر من 76%. إضافةً إلى ذلك، تم تحقيق زيادة بنسبة تزيد عن 33% في دقة الكشف عن الحالات الشاذة (Anomaly Detection).

علاوة على ذلك، تجاوزت نتائجنا على مجموعة بيانات MMDocRAG تلك التي حققتها النماذج الرائدة في الاسترجاع ما لا يقل عن 12.6%. إذًا، كيف ستغير هذه الطريقة الجديدة في المستقبل القريب استراتيجيات الذكاء الاصطناعي؟