في عالم الذكاء الاصطناعي، يعد التعليم من التجارب السابقة أحد العناصر الرئيسية لتطوير وكالات ذكية فعالة. تكشف الأبحاث الأخيرة التي نشرت على منصة arXiv حول الذاكرة المكانية (agentic memory) في النماذج اللغوية الكبيرة (LLMs) عن جانب مثير للقلق: فعندما يتم تحديث الذاكرة باستمرار، قد تتدهور عوضًا عن التحسن.

تشير الدراسة إلى أن الذاكرة تحتوي على نوعين متكاملين:
- التتبع الإيفادي: وهو عبارة عن مسارات خام لما حدث.
- التجريدات المجمّعة: وهي دروس قابلة للاستخدام، تم تبسيطها من تجارب متعددة.

تسعى النظم الحديثة للذاكرة المكانية إلى الشكل المجمّع، حيث تقوم نماذج اللغات الكبيرة بإعادة كتابة المسارات الماضية إلى بنك ذاكرة نصّي يتم تحديثه باستمرار بتفاعلات جديدة، مما يعد بخلق وكلاء ذاتيين هم في حالة تحسن دائم بدون الحاجة لتحديث المعلمات. لكن الدراسة تُظهر أن هذه الذاكرة المجّمعة قد تكون خاطئة حتى عندما تُستند إلى تجارب مفيدة بشكل فعلي.

عندما تتقدم عملية التجميع، ترتفع فائدتها في الذاكرة أولاً، ثم تبدأ بالتدهور، وقد تنخفض إلى ما دون خط الأساس للذاكرة المنعدمة. المفاجأة الأكبر كانت عندما تبيّن أن نموذج GPT-5.4 فشل في حل 54% من مجموعة مشاكل ARC-AGI التي قد حلها من قبل باستخدام الذاكرة.

تم تتبع هذا التدهور إلى خطوة التجميع، حيث تنتج نفس المسارات ذكريات نوعية مختلفة وفقًا لجدول التحديث. في الوقت نفسه، أظهرت التجارب أن التحكم في الذاكرة الإيفادية فقط (الاحتفاظ بتلك المسارات) كان متنافسًا بل ويفتخر بالدقة المزدوجة مقارنةً بخيارات التجميع الجبري.

في بيئة ARC-AGI المتحكم بها التي تعرض عمليات الاحتفاظ، الحذف، والتجميع، يحافظ الوكلاء بشكل افتراضي على الحلقات الخام ويضاعفون دقة نظائرهم المعتمدين على التجميع الإجباري.

إذن، كيف يمكن تحسين الذاكرة الذاتية للوكلاء؟ يجب أن تُعتبر الحلقات الخام دليلًا أوليًا، مع إدارة واضحة لمتطلبات التجميع، بدلاً من إجرائها بعد كل تفاعل. إن تطوير ذواكر وكالات موثوقة سيتطلب نماذج لغوية قادرة على التجميع دون كتابة الأدلة التي تعتمد عليها.