في عصر الذكاء الاصطناعي، يعتبر نموذج RAG (استرجاع المعزز بالتوليد) من الأدوات القوية التي تختبر قدراتها في معالجة المعلومات. لكن هل تساءلت يومًا عما إذا كان بإمكانه تحديد الأخطاء عندما تكون المعلومات المسترجعة خاطئة؟

أظهر بحث حديث أن نموذج RAG يعتمد في أحيان كثيرة على السياق المسترجع حتى عندما يتعارض مع معرفته الأساسية. لذا، تم تقديم تقنية جديدة تُعرف باسم تفكيك السياق المدفوع (Context-Driven Decomposition - CDD) التي تُستخدم كآلية للتدخل والسيطرة على تعارض الاسترجاع.

خلال اختبارات مُعقدة، تُظهر CDD ثلاثة أنماط رئيسية:
1. يمكن قياس الامتثال للسياق في بيئة معادية، حيث شهد نموذج RAG دقة تصل إلى 15% عند مواجهة معلومات خاطئة.
2. تُظهر نتائج CDD تحسنًا في دقة نموذج Gemini-2.5-Flash، بينما تختلف الآليات المستخدمة لحل المشكلات في نماذج Claude المتنوعة.
3. تنجح CDD في تعزيز الصلابة في ظل تحويلات زمنية وتحفيزات مشوشة، حيث تُظهر نتائجها نسبًا تصل إلى 71.3% من الدقة.

هذه النتائج تعزز أهمية فهم الامتثال للسياق كأساس للتحقق من موثوقية نماذج الذكاء الاصطناعي، وتفتح آفاقًا جديدة لدراسة نظامية عبر العائلات والنماذج.

إذا كان لديك رأي أو تساؤلات حول هذا التطور في تقنيات الذكاء الاصطناعي، فلا تتردد في مشاركتنا أفكارك في التعليقات!