في عالم الذكاء الاصطناعي، تعد الذاكرة طويلة الأمد أمرًا حيويًا لوكالات اللغة الكبيرة (LLM Agents) التي تعمل عبر جلسات متعددة. ومع ذلك، فإن معظم نظم الذاكرة الحالية تعالج بنية الاسترجاع كشيء ثابت؛ حيث تتطور المحتويات المخزنة بينما تظل استراتيجيات التقييم ودمج البيانات وسياسات توليد الإجابات جامدة بعد النشر. ولكن ما هو الحل؟
هنا تأتي EvolveMem، وهي بنية ذاكرة ذاتية التطور التي تمثل خطوة ثورية في هذا المجال. بدلاً من الطرق التقليدية، توفر EvolveMem مساحة عمل هيكلية تعطيها قدرة على تحسين إعدادات الاسترجاع بفضل وحدة تشخيص مدعومة من LLM.
تعمل EvolveMem من خلال دورات تطورية متعددة؛ حيث تقوم الوحدة بقراءة سجلات الفشل الخاصة بكل سؤال، وتحديد الأسباب الجذرية، وتقترح تعديلات موجهة. وهذا ما يجعل مبدأ التكيف الذاتي ممكنًا، من خلال تطبيق أدوات أمان مثل التراجع التلقائي عند التدهور والاستكشاف عند الركود.
بالإضافة إلى ذلك، تتجاوز EvolveMem جميع المعايير الحالية من حيث الأداء، بحيث تحقق نسبة زيادة تصل إلى 25.7% على قاعدة البيانات الأكثر قوة في LoCoMo، و78% تحسين نسبي على قاعدة البيانات الأساسية. كما أظهرت التحسينات انتقالًا إيجابيًا عبر المؤشرات المختلفة بدلاً من النقل الكارثي، مما يدل على أن عملية التطور الذاتي تلتقط مبادئ استرجاع عالمية وليس مجرد استراتيجيات خاصة بمعايير محددة.
لمن يرغب في تعميق معرفته، الكود البرمجي متاح عبر الرابط: [EvolveMem Code](https://github.com/aiming-lab/SimpleMem). هل أنتم متحمسون لفرص الذكاء الاصطناعي المتطورة؟ شاركونا آراءكم في التعليقات!
EvolveMem: ثورة في الذاكرة الذاتية المتطورة للوكالات الذكية!
منحت EvolveMem الوكالات اللغوية القدرة على تطوير ذاكرتها الذاتية، مما يعزز قدرتها على التكيف والتطور. تستند هذه البنية إلى عملية بحث تلقائي مبتكرة تعيد تشكيل معايير الاسترجاع بشكل ديناميكي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
