في عالم الذكاء الاصطناعي، تُعتبر نماذج اللغات المتعددة الوسائط (Multimodal Large Language Models - MLLMs) من أبرز التطورات التكنولوجية التي تمكّن هذه النماذج من التعلم بشكل تدريجي لمهام جديدة. ومع ذلك، يواجه هذا النوع من التعلم تحديات عدة، منها مشكلة النسيان الكارثي، حيث تتدهور أداء النماذج في المهام السابقة مع تكيفها مع المهام الجديدة.

للتغلب على هذه المشكلة، يتم الاعتماد عادةً على توسيع المعمارية من خلال إدخال وحدات خاصة بالمهام، ولكن الطرق الحالية تعاني من عيوب عديدة، مثل زيادة الحمل الزائد للمعلمات وبالتالي تقليل مستوى القابلية للتوسع.

تقدم دراسة جديدة تقنية مبتكرة تُسمى LoRA in LoRA (LiLoRA)، وهي طريقة توسع معمارية فعالة تم تصميمها خصيصًا لتدريب التعليمات المرئية المستمر (Continual Visual Instruction Tuning - CVIT) في نماذج MLLMs. تعتمد هذه التقنية على مشاركة المصفوفة A عبر المهام لتقليل التكرار، بالإضافة إلى تطبيق تحليل منخفض الرتبة على المصفوفة B لتقليل عدد المعلمات الخاصة بالمهام.

كما تتضمن LiLoRA خسارة استقرار مُنظمة باستخدام كوسينوس للحفاظ على اتساق التمثيلات المشتركة على مدار الزمن. أظهرت التجارب الواسعة على مجموعة بيانات CVIT متنوعة أن LiLoRA تقدم أداءً متفوقًا في التعلم التسلسلي للمهام، مع تحسين كبير في كفاءة المعلمات مقارنةً بالأساليب السابقة.

للمزيد من التفاصيل حول LiLoRA، يمكنكم زيارة [رابط المشروع على GitHub](https://github.com/chanceche/LiLoRA). لا تفوتوا فرصة معرفة كيف يمكن لهذه الابتكارات أن تحدث ثورة في عالم الذكاء الاصطناعي والتعلم الآلي! ما رأيكم في هذا التطور؟ شاركونا في التعليقات.