في عالم الذكاء الاصطناعي، يشكل توليد الرموز تحدياً كبيراً حيث تسعى النماذج إلى تحقيق الدقة العالية مع سرعة الأداء. إليكم "أورثرُس"، الإطار الثنائي المبتكر الذي يمثل نقطة تحول حيث يجمع بين مزايا نماذج اللغات الضخمة (Large Language Models) ونماذج الانتشار.

تُعد العملية التسلسلية لتوليد الرموز في نماذج اللغات الضخمة تقليدياً سبباً رئيسياً في انخفاض الأداء عند عمليات الاستدلال العالية التدفق. تقديم نموذج "أورثرُس" يُبشر بكسر هذه الحواجز، حيث يُمكّن من توليد الرموز بشكل متوازي وبصورة فعّالة دون التضحية بالدقة.

هذا النموذج صُمم ليتكامل بسلاسة مع نماذج "Transformers" الحالية، حيث يتم تعزيز نموذج اللغة الضخم الثابت بوحدة قابلة للتدريب تُشغل العرض الموازٍ لنموذج الانتشار بجانب العرض التلقائي التقليدي. يُتيح هذا النظام الموحد لكل من العرضين استخدام نفس الذاكرة العالية الجودة، مما يشكل أساساً لتوليد مستمر وفعّال.

ما يُميز "أورثرُس" هو آلية التوافق الدقيقة بين العرضين، مما يضمن تجارب استنتاج خالية من أي فقدان للبيانات، ويحقق زيادة في السرعة تصل إلى 7.8 مرات بينما يحتفظ بزيادة بسيطة في استخدام الذاكرة. يبدو أن المستقبل يحمل لنا إمكانيات غير محدودة مع التطورات التي يُقدمها "أورثرُس" في عالم الذكاء الاصطناعي.