في عالم الذكاء الاصطناعي، تعد نماذج اللغة الكبيرة (Large Language Models - LLMs) واحدة من أبرز الابتكارات التي تمكّن الآلات من فهم وتوليد اللغة بشكل قريب من البشر. رغم التقدم المذهل، تواجه هذه النماذج تحديات كبيرة تتعلق بإدارة الذاكرة عند معالجة السياقات الطويلة. إذ إن زيادة حجم ذاكرة التخزين المؤقت (KV Cache) يؤدي إلى زيادة استهلاك الموارد الزمنية والذاكرات، مما قد يؤثر سلبًا على الأداء.

لذا، توصل العلماء مؤخرًا إلى استراتيجية جديدة تسمى LaProx، التي تعيد صياغة مشكلة التخلص من بيانات الذاكرة بطريقة مبتكرة. بدلاً من الاعتماد على تقنيات الوزن المحلي التقليدية، تقوم LaProx بتطبيق تقريب لمصفوفة الضرب بين طبقات القيمة التي تتضمن تجارب تفاعلية؛ حيث يتم تعديل كل عائق لتقدير المساهمة الفعلية لكل رمز بدقة.

هذا النهج المبتكر يسمح بتقييم عالمي لمستويات أهمية الرموز، بدلاً من اتخاذ قرارات محلية بين رؤوس متعددة، مما يمنح النماذج القدرة على اختيار الرموز المطلوبة بشكل أكثر كفاءة.

تم اختبار فعالية هذه الاستراتيجية الجديدة على 19 قاعدة بيانات مختلفة، بما في ذلك منصات طويلة المدى LongBench وNeedle-In-A-Haystack، حيث أثبتت نتائج التجارب أن LaProx قادرة على الحفاظ على أداء النموذج مع استخدام 5% فقط من الذاكرة المطلوبة سابقًا.

بالإضافة إلى ذلك، تظهر النتائج وصولاً إلى تقليل فقدان الدقة بنسبة تصل إلى مرتين تحت ظروف ضغط شديدة مقارنة بالأساليب التقليدية السائدة، مما يفتح آفاقًا جديدة في التعامل مع الذاكرة في مجال الذكاء الاصطناعي.