في خطوة مثيرة لعالم الذكاء الاصطناعي الطبي، أطلقت MedAIBase نموذج AntAngelMed، الذي يمثل طفرة في مجالي البحث والتطبيق. يتميز هذا النموذج بقدرته على استخدام 103 مليار معلمة، بينما يعتمد على بنية Mixture-of-Experts (MoE) التي تعمل بنظام تفعيل بنسبة 1/32. هذا يعني أنه يقوم بتفعيل فقط 6.1 مليار معلمة أثناء وقت الاستدلال، مما يتيح له تحقيق أداء مذهل يقارب النماذج الكثيفة ذات الـ 40 مليار معلمة.

لكن ما يميز AntAngelMed حقًا هو سرعته الفائقة؛ حيث يمكنه معالجة أكثر من 200 توكن في الثانية باستخدام أجهزة H20. تم تطوير هذا النموذج الذكي استنادًا إلى لغة Ling-flash-2.0، ومر بمراحل تدريب متواصلة تتضمن التدريب المسبق المُستمر، والتحسين الخاضع للإشراف، بالإضافة إلى التعلم التعزيزي المبني على استراتيجية GRPO.

لم يقتصر تأثير AntAngelMed على الأداء فحسب، بل تصدر كذلك التقييمات على منصات مرموقة مثل HealthBench لـ OpenAI، حيث احتل المرتبة الأولى بين النماذج المفتوحة المصدر، متفوقًا في كلا تقييمات MedAIBench وMedBench.