أعلنت شركة Zyphra عن إطلاق نموذجها الجديد ZAYA1-8B، وهو نموذج استدلال يعتمد على تقنية خلط الخبراء (Mixture of Experts) ويتميز بوجود 760 مليون معامل فقط، إلا أنه يتفوق بوضوح على النماذج الأخرى ذات الأوزان الكبيرة في مجالات الرياضيات والترميز. في الحقيقة، استطاع ZAYA1-8B أن يتجاوز العديد من المنافسين الكبار مثل DeepSeek-V3.2 وClaude 4.5 Sonnet خلال المنافسات الخاصة بالبروتوكولات المعقدة مثل HMMT'25، وذلك بفضل أسلوبه الجديد في حسابات اختبار التوقيت باستخدام طريقة ماركوفية (Markovian RSA). علاوة على ذلك، تم تدريب هذا النموذج بشكل كامل على معالجات AMD Instinct MI300، مما يعكس قدرة Zyphra على تعزيز الكفاءة والمعالجة في المجال. يُقدم هذا النموذج تحت ترخيص Apache 2.0، مما يتيح للباحثين والمطورين إمكانية الوصول إليه والاستفادة منه في مشاريعهم. في المجمل، يمثل ZAYA1-8B معيارًا جديدًا لكثافة الذكاء الاصطناعي في فئة النماذج اللغوية الصغيرة. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.