تعزيز دقة الحقائق في نماذج اللغات الضخمة عبر بناء شبكات المعرفة في وقت الاستدلال
تواجه نماذج اللغات الضخمة (LLMs) تحديات في تقديم إجابات دقيقة بسبب قيود الذاكرة. نقدم إطار عمل مبتكر يقوم ببناء وتوسيع شبكات المعرفة لتعزيز دقة المعلومات في الاستدلال عند استخدام هذه النماذج.
تسعى الأبحاث الحديثة إلى معالجة أحد التحديات المهمة التي تواجه نماذج اللغات الضخمة (Large Language Models) وهو إنتاج إجابات متسقة من الناحية الواقعية. تمر هذه النماذج أحياناً بصعوبات في تقديم معلومات دقيقة نتيجة لقيود ذاكرتها الشكلية. ومن أبرز الحلول المقترحة، تقنية "استرجاع المعلومات المعززة" (Retrieval-Augmented Generation - RAG) التي تحاول التغلب على هذه العقبة من خلال دمج المعرفة الخارجية في مرحلة الاستدلال. ومع ذلك، تتعامل هذه الطريقة غالبًا مع المعرفة كنص غير منظم، مما يؤثر سلبًا على دقة الاسترجاع ويعوق القدرة على التفكير التحليلي، كما يزيد من تأثير المعلومات غير ذات الصلة على دقة المخرجات. \n \nلذا، نقدم في هذا البحث إطار عمل جديد يقوم ببناء وتوسيع شبكات المعرفة (Knowledge Graphs) بشكل ديناميكي أثناء عملية الاستدلال. يتضمن هذا الإطار دمج المعرفة الداخلية المستخرجة من نماذج اللغات، بالإضافة إلى المعرفة الخارجية المسترجعة من مصادر أخرى. يبدأ عملنا باستخراج شبكة معرفة أولية من السؤال، ثم يقوم بتوسيعها بشكل دوري باستخدام المعرفة الداخلية للنموذج. يتم بعد ذلك تحسين الشبكة بشكل انتقائي عبر استرجاع المعلومات الخارجية، مما يعزز من تغطية الحقائق ويصحح الأخطاء المحتملة. \n \nلقد قمنا بتقييم طريقتنا على ثلاثة معايير متنوعة للأسئلة الواقعية، مما أظهَر تحسنًا مستمرًا في دقة الحقائق مقارنة بالأساليب التقليدية. وهذه النتائج تشير إلى أن بناء شبكات المعرفة في وقت الاستدلال يمثل اتجاهًا واعدًا لتحسين دقة الحقائق في نماذج اللغات الضخمة بشكل منظم وقابل للتفسير وقابل للتوسع.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
