في السنوات الأخيرة، أصبحت نماذج المزيج الدمجي (Mixture of Experts - MoE) واحدة من أحدث الابتكارات في مجال الذكاء الاصطناعي، حيث تعمل على تحسين كفاءة نماذج اللغات الضخمة (Large Language Models) من خلال تفعيل مجموعة محددة فقط من الخبراء لكل استفسار. لكن، قد تواجه هذه النماذج تحديات عند نشرها على الأجهزة الذكية ذات الموارد المحدودة، مثل الهواتف الذكية والأجهزة اللوحية.

هنا تظهر تقنية SMoE، التي تم تصميمها لتجاوز هذه التحديات بذكاء. بدلاً من التعامل مع عملية الاستبعاد للخبراء كما لو كانت مجرد مشكلة جدولة، تستفيد هذه التقنية من أهمية الخبراء؛ حيث تقوم باستبدال الخبراء غير الفعّالين بخبراء مُحجوزين بالفعل في ذاكرة GPU، مما يضمن الحفاظ على دقة النموذج.

تتيح هذه الاستراتيجية تقليص استخدام الذاكرة ونقل البيانات بشكل فعال، مما يُعزز الأداء بشكل كبير. وبالإضافة إلى ذلك، تم تقديم سياسة جدولة جديدة تهدف إلى زيادة نسبة إعادة استخدام الخبراء المخزنين في الذاكرة، وهو ما يُسهم في تعزيز الكفاءة.

تشير الدراسات أن هذه المقاربة أظهرت تقليلًا بنسبة 48% في زمن استجابة النماذج مع تحقيق نسبة نجاح تتجاوز 60% في الوصول إلى الخبراء المخزنين، بينما تبقى الدقة مشابهة تقريبًا للنتائج التقليدية.

في ظل هذا التطور، يبقى السؤال: كيف ستؤثر هذه الابتكارات على مستقبل الذكاء الاصطناعي والأجهزة الذكية؟