في عالم الذكاء الاصطناعي، تُعد أنظمة الجيل المعزز بالاسترجاع (RAG) واحدة من الأساليب الأكثر تأثيرًا في تحسين نماذج اللغات الضخمة (Large Language Models). يعتمد هذا الأسلوب على دمج المعلومات المسترجعة لتعزيز دقة الإجابات. لكن، على الرغم من هذه الإمكانيات، لا تزال هذه الأنظمة تنتج إجابات غير صحيحة في العديد من الحالات، مما يثير تساؤلات حول السبب خلف ذلك.

في دراسة حديثة، تم إجراء تحليل داخلي لنظام الجيل المعزز بالاسترجاع، حيث تم فحص كيف تؤثر الأدلة المسترجعة على توليد الإجابات. باستخدام تقنيات تتبع الدوائر، تم إنشاء رسومات بيانية تعكس تدفق المعلومات بين طبقات المحولات (Transformers) أثناء عملية فك التشفير. تمثل هذه الرسومات التفاعلات بين السياق المسترجع، تنشيطات النموذج الوسطية، والرموز المنتجة، مما يوفر رؤية مفصلة حول كيفية دمج الأدلة الخارجية في عملية استدلال النموذج.

من خلال تحليل الأداء عبر مجموعة متعددة من معايير الإجابة عن الأسئلة، لوحظت اختلافات هيكلية متسقة: تشير التوقعات الصحيحة إلى مسارات استدلال أعمق، وتدفق Evidence أكثر توزيعًا، ونمط أكثر تنظيمًا من الاتصال المحلي، في حين أن التوقعات غير الصحيحة تظهر تدفق Evidence سطحي، ومج fragmented، ومركز بشكل مفرط.

استنادًا إلى هذه النتائج، تم تطوير إطار عمل للكشف عن الأخطاء يعتمد على خصائص رسومات الاعتمادية (Attribution Graphs). كما تم توضيح أن هذه الرسومات تمكن من التدخلات المستهدفة، من خلال تعزيز الربط المبني على الأدلة المرتبطة بالسؤال، مما يعيد تشكيل تدفق المعلومات الداخلية لضمان أن توليد الإجابات يبقى موجهًا بالسؤال، مما يؤدي إلى إدماج أكثر فعالية للمعلومات المسترجعة وتقليل الأخطاء.