في عالم الذكاء الاصطناعي، يسعى الباحثون دائمًا إلى تحسين كيفية تفاعل الأنظمة مع المستخدمين. مؤخراً، تم طرح نظام جديد يطلق عليه اسم MemSearcher، الذي يعد بمثابة ثورة في طريقة إدارة الذكاء الاصطناعي للذاكرة خلال التفاعلات المتعددة المراحل.
عادةً ما تعتمد الوكلاء المعتمدون على نماذج اللغات الضخمة (Large Language Models) على تضمين تاريخ التفاعل الكامل في السياق، مما ينتج إدخالات طويلة وصاخبة تؤدي إلى زيادة التكاليف الحسابية واستهلاك ذاكرة GPU. لكن MemSearcher يأتي بحل مبتكر، حيث يحتفظ بذاكرة مضغوطة أثناء التفاعلات متعددة المراحل، مما يسمح له بالاحتفاظ فقط بالمعلومات ذات الصلة بالسؤال، وبالتالي الحفاظ على طول السياق ثابتًا.
تدريب MemSearcher يعد تحديًا كبيرًا، إذ يمتد كل مسار عبر عدة دورات في سياقات LLM مختلفة، مما يجعل كل دورة هدفًا مستقلاً لتحسين التعلم المعزز. ومع ذلك، تم تقديم تقنيات جديدة مثل GRPO متعدد السياقات الذي ينقل المزايا على مستوى المسار إلى جميع الدورات من أجل تحسين شامل.
تظهر التجارب أن MemSearcher يتفوق على معايير المنافسة المعتمدة على دمج التاريخ (مثل نمط ReAct) عبر مجموعة متنوعة من مجموعات البيانات العامة، مع الحفاظ على عدد ثابت تقريبًا من الرموز عبر التفاعلات متعددة المراحل. بمثل هذه الابتكارات، يبدو أن مستقبل البحث في الذكاء الاصطناعي يتجه نحو كفاءة أكبر وقدرات تحسين عميقة.
سيتوفر كود MemSearcher والنماذج العامة في [رابط GitHub]. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
MemSearcher: ثورة في البحث عبر الذكاء الاصطناعي بإدارة فعّالة للذاكرة!
تقدم دراسة جديدة نظام MemSearcher الذي يعمل على تحسين عمليات البحث عن طريق إدارة الذاكرة بشكل فعّال خلال التفاعلات متعددة المراحل. هذا النظام يوفر نتائج دقيقة بتكاليف حسابية منخفضة وذاكرة GPU أقل.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
