تعتبر نماذج اللغات الضخمة (LLMs) من أبرز الابتكارات في مجال الذكاء الاصطناعي، حيث تمتاز بقدرتها على استرجاع المعلومات وتوليد النصوص بشكل ذكي. لكن ما الذي يحدث عندما يتم توسيع القدرة على استرجاع الذاكرة؟ أظهرت الأبحاث الأخيرة، وكذلك تجربتنا في تحليل 7 نماذج لغوية و4 ألعاب على مدار 500 جولة، أن هذا التوسع يمكن أن يعود بالضرر على نية التعاون بين الوكلاء.
نطلق على هذه الظاهرة 'لعنة الذاكرة'، حيث يتسبب توسيع الذاكرة في تدهور التعاون في 18 من أصل 28 سيناريو تم اختباره. الأبحاث تظهر أن المشكلة ليست فقط في طول الذاكرة، بل تتعلق بمحتواها.
الأبحاث تضمنت ثلاث تحليلات رئيسية لتحديد الآلية وراء هذه الظاهرة. في البداية، ارتبطت تحليلات القراءة من 378,000 أثر تفكير بانهيار النية التطلعية، وهو ما يتعارض مع فكرة تصاعد الشك وال paranoia. باستخدام تقنيات التخصيص المستهدفة، تمكنا من تأكيد هذا الاستنتاج من خلال استخدام محولات LoRA، والتي ساعدت في تقليل التدهور.
ثانيةً، قام الباحثون بتطبيق عملية تطهير الذاكرة، حيث تم استبدال السجلات التاريخية المرئية بسجلات تعاونية مصطنعة دون تغيير طول الطلب، مما يعني أن المحتوى الذكري هو المحرك الحقيقي للمشكلة وليس الطول.
أخيراً، تبين أن تقليل التفكير المنطقي Chain-of-Thought قد يؤدي إلى انخفاض في الانهيار العام، مما يُظهر أن التفكير أحياناً قد يُعزز من لعنة الذاكرة بدلاً من العكس.
في المجمل، تشدد هذه النتائج على أن الذاكرة ليست بلا هدف في سلوك الوكلاء المتعددين؛ بل يمكن أن تكون سبباً في عدم الاستقرار أو تعزز التعاون اعتماداً على أنماط التفكير المثارة. هل تعتبرون أن هذا التطور له تأثير إيجابي أم سلبي على تطبيقات الذكاء الاصطناعي المستقبلية؟ شاركونا آرائكم في التعليقات.