في عالم الذكاء الاصطناعي، تظهر بين الحين والآخر نماذج تتحدى القيود التقليدية، ومن بين هذه النماذج يأتي ZAYA1-8B، الذي تم تصميمه ليكون نموذجًا متقدماً في مجال التفكير والتحليل. يعتمد ZAYA1-8B على بنية Mixture-of-Experts (MoE)، ويحتوي على 700 مليون معلمة نشطة و8 مليار معلمة إجمالية، مما يجعله من النماذج الرائدة في السوق.

تم تدريب ZAYA1-8B بشكل شامل باستخدام منصة AMD الكاملة، حيث تم تنفيذ عملية التدريب المسبق، والوسط، والتعديل الدقيق تحت إشراف (Supervised Fine-Tuning - SFT). يحقق هذا النموذج أداءً متميزًا، حيث يتفوق على نموذج DeepSeek-R1-0528 في العديد من التحديات المتعلقة بالرياضيات والترميز ويظل قوياً مقارنة مع نماذج التفكير المفتوحة ذات الوزن الأكبر.

نقطة القوة في ZAYA1-8B تكمن في كيفية تدريبه، إذ تم تضمين بيانات التفكير منذ بداية التدريب كجزء من استراتيجية الحفاظ على الإجابات، وتتمتع المرحلة النهائية من التدريب بعمليات مكثفة تشمل التفاعل السلوكي (Behavioral Reinforcement Learning) وتحليل البيانات (Data Analysis).

من المثير للاهتمام أن ZAYA1-8B يتجاوز حدود استخدام البيانات التقليدية، حيث يعتمد على طريقة حساب تسمى Markovian RSA، التي تجمع بين مسارات التفكير المتوازية بشكل متكرر، مما يعزز الأداء النسبي للنموذج ليصل إلى 91.9% في تقييم AIME'25 و89.6% في HMMT'25.

تأتي هذه الإنجازات لتعكس الفجوة المتزايدة بين ZAYA1-8B والنماذج الأكثر حجمًا مثل Gemini-2.5 Pro وDeepSeek-V3.2 وGPT-5-High. مع هذا التقدم، يقدم ZAYA1-8B وعودًا حقيقية بتحديد مسارات جديدة حول مستقبل الذكاء الاصطناعي والتفكير الآلي.

إذا كنت تبحث عن نموذج يجمع بين الأداء المتفوق والابتكار، فإن ZAYA1-8B هو الخيار الأمثل. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.