في عالم الذكاء الاصطناعي المتسارع، يبرز نموذج 'ليفياثان' (Leviathan) كابتكار جديد ورائد في تصميم نماذج اللغة. يعتبر هذا النموذج تحديثًا حقيقيًا يؤكد على أهمية فصل تمثيلات المدخلات والمخرجات في التعلم الآلي. في العادة، تعتمد معظم نماذج اللغة الحديثة على مصفوفة واحدة تمثل المدخلات وتوقعات المخرجات، وهو ما يخلق ارتباطًا غير مرغوب فيه بين هدفين مختلفين: تمثيل الرموز والتفريق بين مجموعة المفردات.

لكن 'ليفياثان' يأتي ليحل هذه المشكلة من خلال استبدال مصفوفة تضمين المدخلات بتقنية جديدة تُعرف باسم 'التضمين المتعلم' (Learned Embedding Vectorization - LEV). تقوم هذه التقنية بتوفير خريطة مستمرة مدمجة من مؤشرات الرموز إلى التضمينات، مما يعزز أداء النموذج ويفتح المجال لتحسينات الأداء بزيادة لا تتجاوز 0.2% في عدد المعاملات.

في تجارب مقارنة محكمة، أظهر 'ليفياثان' بوضوح تحسينات أداء ملحوظة في نماذج التعلم على قاعدة بيانات 'The Pile'، حيث سجل زيادة في الأداء تقلل من تعقيد التحقق بنسبة تصل إلى 9%، مع الحاجة إلى عدد أقل بمقدار 2.1 مرة من الرموز التدريبية للوصول إلى الحد النهائي للفقد في نماذج التضمين المثبتة.

تُظهر التحليلات المتخصصة في تكرار الرموز أن مكاسب الأداء تتركز أكثر في الرموز النادرة، حيث أدت المعلمات المستمرة إلى تقليل تعقيد التحقق بنسبة 81%، حتى اقتربت من الصفر للرموز الأكثر تكرارًا.

تعد هذه النتائج بمثابة دليل قوي على فعالية النموذج الجديد وقدرته على تحسين الأداء في مجموعة من المهام المختلفة.