في عالم الذكاء الاصطناعي، تُعد أنظمة الجيل المعزز بالاسترجاع (RAG) واحدة من الأساليب الأكثر تأثيرًا في تحسين نماذج اللغات الضخمة (Large Language Models). يعتمد هذا الأسلوب على دمج المعلومات المسترجعة لتعزيز دقة الإجابات. لكن، على الرغم من هذه الإمكانيات، لا تزال هذه الأنظمة تنتج إجابات غير صحيحة في العديد من الحالات، مما يثير تساؤلات حول السبب خلف ذلك.
في دراسة حديثة، تم إجراء تحليل داخلي لنظام الجيل المعزز بالاسترجاع، حيث تم فحص كيف تؤثر الأدلة المسترجعة على توليد الإجابات. باستخدام تقنيات تتبع الدوائر، تم إنشاء رسومات بيانية تعكس تدفق المعلومات بين طبقات المحولات (Transformers) أثناء عملية فك التشفير. تمثل هذه الرسومات التفاعلات بين السياق المسترجع، تنشيطات النموذج الوسطية، والرموز المنتجة، مما يوفر رؤية مفصلة حول كيفية دمج الأدلة الخارجية في عملية استدلال النموذج.
من خلال تحليل الأداء عبر مجموعة متعددة من معايير الإجابة عن الأسئلة، لوحظت اختلافات هيكلية متسقة: تشير التوقعات الصحيحة إلى مسارات استدلال أعمق، وتدفق Evidence أكثر توزيعًا، ونمط أكثر تنظيمًا من الاتصال المحلي، في حين أن التوقعات غير الصحيحة تظهر تدفق Evidence سطحي، ومج fragmented، ومركز بشكل مفرط.
استنادًا إلى هذه النتائج، تم تطوير إطار عمل للكشف عن الأخطاء يعتمد على خصائص رسومات الاعتمادية (Attribution Graphs). كما تم توضيح أن هذه الرسومات تمكن من التدخلات المستهدفة، من خلال تعزيز الربط المبني على الأدلة المرتبطة بالسؤال، مما يعيد تشكيل تدفق المعلومات الداخلية لضمان أن توليد الإجابات يبقى موجهًا بالسؤال، مما يؤدي إلى إدماج أكثر فعالية للمعلومات المسترجعة وتقليل الأخطاء.
لماذا تفشل أنظمة الجيل المعزز بالاسترجاع؟ نظرة عبر رسم بياني
تقدم أنظمة الجيل المعزز بالاسترجاع (RAG) آفاقاً جديدة في تعزيز نماذج اللغات الضخمة، ولكنها لا تخلو من العيوب. هذا المقال يستعرض كيف يؤثر الدليل المسترجع على تكوين الإجابات ويكشف عن الأسباب وراء فشل هذه الأنظمة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
