في عالم التكنولوجيا المتقدمة، تظل نماذج Mixture-of-Experts (MoE) إحدى أهم الهياكل المعمارية المستخدمة في إنشاء نماذج لغوية كبيرة. ومع ذلك، يواجه تنفيذ هذه النماذج في البيئات المحلية تحديات تتعلق بالذاكرة، إذ يؤدي تجميع البيانات إلى تحويل الحسابات القليلة لكل توكن إلى تنشيط كثيف للذاكرة.

لحل هذه المشكلة، تم تقديم ELMoE-3D، وهو إطار عمل مبتكر يدمج بين تصميم الهاردوير (HW) والبرمجيات (SW) ليدمج بين تسريع يعتمد على التخزين المؤقت والتشفير التخميني (Speculative Decoding)، مما يتيح سرعة أداء شاملة عبر أحجام دفعات مختلفة. يقوم ELMoE-3D بتحقيق توازن بين محاور مرونة داخلية متعددة، مما يزيد من كفاءة تخزين البيانات.

تستخدم بنية ELMoE-3D المقطعة المعززة بتقنية LSB فروقات متأصلة في تمثيلات البيانات لدعم التنفيذ المحوري بشكل طبيعي. ومع استخدام هاردوير مكدس ثلاثي الأبعاد، يحقق ELMoE-3D متوسط زيادة في السرعة بمقدار 6.6 مرات وكفاءة طاقة بمقدار 4.4 مرات مقارنة بالتطبيقات التقليدية لنموذج MoE عبر أحجام دفعات تتراوح من 1 إلى 16. بل إنه يتفوق بمقدار 2.2 مرة في السرعة و1.4 مرة في كفاءة الطاقة مقارنة بأفضل نماذج التسريع السابقة.

هذا التطور الملحوظ يُعد علامة فارقة في كيفية استغلال نماذج MoE للتقنيات الحديثة، مما يفتح الأبواب أمام تحسينات أكثر انتشاراً في مجال المعالجة اللغوية. هل أنتم مستعدون لاستكشاف كيف ستغير هذه الابتكارات مستقبل الذكاء الاصطناعي؟