في عالم الذكاء الاصطناعي، تواصل نماذج اللغة الكبيرة (Large Language Models) تحقيق إنجازات مذهلة، وها هو ظهور نموذج PARD-2 لتدعيم هذا التوجه. يركز هذا النموذج الجديد على تحسين طريقة التعامل مع التشفير الاستباقي، حيث يعتمد على نموذج مسودة خفيف الوزن يقترح الرموز المرشحة التي يتم التحقق منها في وقت واحد بواسطة النموذج المستهدف.

ومع ذلك، كانت الأهداف التدريبية للنماذج السابقة لا تتماشى بشكل مباشر مع هدف تعظيم قبول الرموز المتتالية في وقت الاستنتاج. ولهذا السبب، أجرى الباحثون تعديلًا على أهداف تحسين نموذج المسودة، حيث تنتقل التركيزات من دقة توقع الرموز إلى الطول الكلي المقبول.

يعد PARD-2 إطارًا جديدًا يطبق التشفير الاستباقي من خلال تحسينات جديدة تتعلق بـConfidence-Adaptive Token (CAT) مما يجعل كل رمز يتكيف مع عملية التحقق بشكل أفضل. وبفضل هذه المزايا، يمكن لنموذج المسودة الواحد دعم كل من الأوضاع المعتمدة على الهدف وغير المعتمدة عليه.

تظهر التجارب على نماذج ومهام متنوعة أن PARD-2 يوفر تسريعًا يصل إلى 6.94 مرة دون فقدان البيانات، يتفوق على EAGLE-3 بنسبة 1.9 مرة وPARD بنسبة 1.3 مرة على نموذج Llama3.1-8B.

يمكنك استكشاف التعليمات البرمجية الخاصة بهذا النموذج الرائع من خلال زيارة [رابط الكود](https://github.com/AMD-AGI/PARD). هل تعتقد أن هذا الابتكار سيكون له تأثير كبير على مستقبل نماذج اللغة؟ شاركونا آرائكم في التعليقات!