هل تبحث عن طرق لتعليم نماذج الذكاء الاصطناعي الكبيرة مهارات جديدة مع الحفاظ على قدراتها الحالية؟ هذا هو محور الدراسة التي تستكشف القدرة على ضبط نماذج متعددة الوسائط الكبيرة (Large Multimodal Models - LMMs) من خلال عملية تدريجية دقيقة. تنطلق هذه الدراسة من فرضية مثيرة، تتمثل في إمكانية استعادة الأداء المفقود على المهام السابقة بعد إتقان مهارة جديدة.

أجريت التجارب على خمس مهارات مستهدفة، وتمت متابعتها عبر ثمانية اختبارات مرجعية متوازية. وقد أظهرت النتائج المفاجئة أنه بعد التوجه لتحسين مهارة معينة، يمكن أن يحدث استرداد جزئي للأداء في المهام المحتفظ بها عند التوجه لتحسين مهارة أخرى. تتبع الباحثون هذا السلوك إلى تغير ملحوظ في توزيع التوكنات الناتجة، حيث أظهر تحليل بسيط أن هذا التغيير يتزامن مع نسيان بعض المهارات.

استنادًا إلى هذه النتائج، حدد الباحثون طريقتين بسيطتين وفعالتي الأداء: 1) تحديث فقط طبقات الانتباه الذاتي (SA Proj) مما أدى إلى زيادة ملحوظة في الأداء، و2) تحديث بوابة MLP مع تجميد مكونات أخرى، مما أظهر تحسينات أكبر بكثير على أداء التعلم.

أظهرت المقارنات مع أساليب تقليل النسيان التقليدية مثل Learning without Forgetting وLoRA وغيرها، أن طرق الضبط الانتقائي التي تم اقتراحها تتفوق عليها، مما يؤكد ضرورة التحكم بتوزيع النتائج لتحقيق تعلم أفضل بدون فقدان المهارات الهامة. هذه النتائج الراسخة ستساعد مستقبل الذكاء الاصطناعي في إدارة عملية التعلم بشكل أكثر فعالية. في النهاية، ستكون الشيفرة البرمجية متاحة للمطورين لتحقيق الفوائد منها.