في عالم الذكاء الاصطناعي، تتجه أنظار الباحثين نحو تحسين أداء نماذج اللغات الضخمة (Large Language Models - LLMs) من خلال أساليب تعلم مبتكرة. الخبر الجديد يقدم لنا إطار عمل فريداً يجمع بين التعلم السريع والبطيء، حيث يُعتبر التعلم البطيء هو تحديث المعلمات (parameters) للنموذج، بينما يمثل التعلم السريع تحسين السياقات (context) بشكل ديناميكي.

تواجه نماذج اللغة تحديات كبيرة عندما يتعلق الأمر بتحديث المعلمات، حيث إن القيام بذلك عادة ما يؤدي إلى فقدان المعلومات الهامة (catastrophic forgetting) وبالتالي فقدان القدرة على التكيف (plasticity). من ناحية أخرى، يتيح التعلم في السياق (in-context learning) للأنظمة معالجة المعلومات بسرعة وبتكلفة منخفضة، ولكنه لا يتفوق على المعرفة المكتسبة من خلال تحديث المعلمات.

مع ظهور إطار التعلم السريع والبطيء، يمكن الآن للنماذج الاستفادة من "أوزان سريعة" تتعلم من التغذية النصية، بينما تظل "الأوزان البطيئة" قريبة من النموذج الأساسي وتحافظ على سلوك التفكير العام.

تظهر الأبحاث أن طريقة "التدريب السريع والبطيء" (Fast-Slow Training - FST) تزيد من كفاءة استخدام العينات بنسبة تصل إلى ثلاثة أضعاف مقارنة بالتعلم البطيء فقط، فيما تستمر هذه النماذج في التكيف بشكل أفضل مع المهام الجديدة، مما يعزز مرونة النماذج ويقلل من فقدان المعلومات بشكل ملحوظ.

هذا الابتكار في التعلم يمثل خطوة كبيرة نحو تمكين نماذج اللغات من العمل بكفاءة أكبر في بيئات متنوعة ومتغيرة، مما يدفع حدود الذكاء الاصطناعي إلى آفاق جديدة انطلاقًا من فهم عميق لآليات التعلم.