في عالم الذكاء الاصطناعي، تعتبر عملية تقليل وزن النماذج الكبيرة تحدياً كبيراً، خاصة عند استخدام Transformers المدربة سلفًا. تكمن المشكلة الرئيسية في أنها تتطلب عادةً كميات ضخمة من بيانات التدريب لاستعادة الأداء المطلوب، وهو ما لا يتوفر في حالات كثيرة. هنا تبرز تقنية BaldWhisper، التي تقدم حلاً مبتكرًا لمشكلة تقليص وزن نموذج Whisper.

بدلاً من اتباع نهج تقليدي يتمثل في تقليص المفردات، والذي قد يكون غير مناسب نظرًا لتكرار التبديل اللغوي بين الناطقين بلغة البامبارا (Bambara)، اقترحت الدراسة استخدام تقنيات متطورة مثل تحليل القيم المنخفضة (low-rank decomposition) واستخراج الميزات (feature distillation) لضغط البيانات.

وما يميز هذه الطريقة هو دمج الطبقات بدلاً من إزالتها، مما يساعد على تقليل فقدان الأداء. النتيجة كانت نموذجًا يحافظ على 90% من الأداء الأصلي، مع تقليص حجمه بنسبة 48% وزيادة سرعته بمعدل 2.15 مرة عند التشغيل على جهاز MacBook Air M1.

من المثير للاهتمام كيف يمكن لهذه الابتكارات أن تُحدث تغييرات كبيرة في استخدام الذكاء الاصطناعي على الأجهزة المحمولة، خاصة في البيئات التي تفتقر إلى بيانات التدريب. هل نحن أمام بداية حقبة جديدة من النماذج الخفيفة والسريعة؟ ما رأيكم في هذا التطور؟ شاركونا في التعليقات.