في خطوة ثورية نحو تطوير الذكاء الاصطناعي، تم تقديم تقنية Key-Value Means (KVM)، والتي تتسم بنمط جديد في استخدام الانتباه. هذه التقنية أصبحت نقطة تحول في كيفية معالجة البيانات، حيث يمكنها استيعاب حالات ذات حجم ثابت أو متنامٍ.

تعتمد KVM على نموذج تحويلي قوي يتيح استخدام طبقات انتباه بحجم ثابت، ما يعزز من كفاءتها ويساعد على تحقيق أداء ممتاز بسرعة تعادل $O(N)$، مع إضافة عدد قليل جدًا من المعلمات الجديدة. وتم اختبار فعالية KVM من خلال تدريب محول مع ذاكرة كاش قابلة للنمو، حيث أظهرت النتائج تنافسية ملحوظة في اختبارات السياقات الطويلة، مع تكلفة زمنية أقل من $O(N^2)$ وسرعة نمو الدولة.

أحد أبرز مميزات KVM هو أنها قابلة للتطبيق باستخدام العمليات القياسية، مما يتيح تدريبًا متوازٍ على مستوى الأجزاء واستخدام ذاكرة كاش KV بكفاءة. تجسد KVM فوائد المحولات التقليدية مثل إمكانية توسيع ذاكرة السياق والتدريب المتوازي، ودمجها مع إمكانيات الشبكات العصبية الخطية في حل متكامل.

يمكن تطبيق KVM في كل طبقة من الشبكة، مما يوفر ذاكرة كاش أكثر كفاءة ويمنح المستخدم مجموعة من الخيارات فيما يخص تعقيد زمن استرجاع البيانات من $O(N)$ إلى $O(N^2)$. كما يمكن أيضًا دمجها في حلول هجينة بالتعاون مع طبقات LRNN لتحسين استخدام ذاكرة السياقات النموذجية وطول فك الشفرات.

للمزيد من التفاصيل ولتحميل التعليمات البرمجية والنماذج المدربة، يمكنكم زيارة [GitHub](https://github.com/recursal/KVM-paper) و[Hugging Face](https://huggingface.co/collections/recursal/key-value-means). هل أنتم متحمسون لتجربة هذه التقنية الجديدة في مشاريعكم الذكية؟ شاركونا آراءكم في التعليقات!