تعد نماذج اللغات الكبيرة (Large Language Models) ركيزة أساسية في تطوير الوكلاء البرمجيين الذكيين، والتي تعتمد بشكل متزايد على الذاكرة الخارجية لإعادة استخدام الخبرات السابقة في تصحيح الأخطاء ومعرفة العمليات الموجودة في المستودعات. ومع ذلك، فإن الذاكرة المسترجعة لا تكون مفيدة دائمًا، حيث يمكن أن تؤدي التشابهات السطحية في تفاصيل الأخطاء إلى استرجاع معلومات غير آمنة. لذا، تقع علينا مسؤولية إعادة صياغة هذا الاستخدام للذاكرة كقضية تحكمية حساسة تجاه عدم اليقين.

تقدم الدراسة الحالية مفهوم "منظم ذاكرة حساسية المخاطر" (RSCB-MC) الذي يحدد ما إذا كان ينبغي على الوكيل استخدام الذكرة، أو استبعادها، أو طلب ملاحظات. يقوم النظام بتخزين المعرفة المتعلقة بالأعطال من خلال نموذج محدد ومرن، حيث يعمل على تحويل الأدلة المسترجعة إلى حالة سياقية تتكون من 16 ميزة. هذه الميزات تشمل الأهمية، عدم اليقين، التوافق البنيوي، تاريخ الملاحظات، مخاطر الإيجابية الزائفة، ومدى استجابة القرار.

في التجارب التي جرت، أظهر النظام نتائج مذهلة، حيث حقق معدل نجاح يبلغ 62.5% في بيئات غير مثالية، مع خلوه من أي معدلات إيجابية زائفة. في حالات تجريبية محددة، وصل إلى معدل 60.5% من النجاح، مما يظهر أن السؤال الجوهري ليس فقط عن أي ذاكرة هي الأكثر تشابهًا، بل أيضًا عن مدى أمان الذاكرة المسترجعة في التأثير على مسارات التصحيح.

تعكس هذه النتائج أهمية التقنيات الحديثة في تعزيز فعالية وموثوقية الوكلاء البرمجيين، من خلال التركيز على الأمان وعدم اليقين في عملية استرجاع المعلومات. لذا، هل تعتقد أن هذه المنهجية ستحدث ثورة في عالم الذكاء الاصطناعي؟ شاركونا برأيكم.