في عالم الذكاء الاصطناعي، تواصل نماذج اللغة الكبيرة (Large Language Models) تحقيق إنجازات مذهلة، وها هو ظهور نموذج PARD-2 لتدعيم هذا التوجه. يركز هذا النموذج الجديد على تحسين طريقة التعامل مع التشفير الاستباقي، حيث يعتمد على نموذج مسودة خفيف الوزن يقترح الرموز المرشحة التي يتم التحقق منها في وقت واحد بواسطة النموذج المستهدف.
ومع ذلك، كانت الأهداف التدريبية للنماذج السابقة لا تتماشى بشكل مباشر مع هدف تعظيم قبول الرموز المتتالية في وقت الاستنتاج. ولهذا السبب، أجرى الباحثون تعديلًا على أهداف تحسين نموذج المسودة، حيث تنتقل التركيزات من دقة توقع الرموز إلى الطول الكلي المقبول.
يعد PARD-2 إطارًا جديدًا يطبق التشفير الاستباقي من خلال تحسينات جديدة تتعلق بـConfidence-Adaptive Token (CAT) مما يجعل كل رمز يتكيف مع عملية التحقق بشكل أفضل. وبفضل هذه المزايا، يمكن لنموذج المسودة الواحد دعم كل من الأوضاع المعتمدة على الهدف وغير المعتمدة عليه.
تظهر التجارب على نماذج ومهام متنوعة أن PARD-2 يوفر تسريعًا يصل إلى 6.94 مرة دون فقدان البيانات، يتفوق على EAGLE-3 بنسبة 1.9 مرة وPARD بنسبة 1.3 مرة على نموذج Llama3.1-8B.
يمكنك استكشاف التعليمات البرمجية الخاصة بهذا النموذج الرائع من خلال زيارة [رابط الكود](https://github.com/AMD-AGI/PARD). هل تعتقد أن هذا الابتكار سيكون له تأثير كبير على مستقبل نماذج اللغة؟ شاركونا آرائكم في التعليقات!
PARD-2: نموذج مبتكر للتشفير الاستباقي يعزز أداء نماذج اللغة!
صمم الباحثون نموذج PARD-2 لتحسين تجربة التشفير الاستباقي، حيث يحقق زيادة ملحوظة في سرعة تنفيذ نماذج اللغة الكبيرة. مع مزايا جديدة مثل تحسين عملية قبول الرموز، يعد PARD-2 خطوة كبيرة نحو المزيد من الابتكارات في هذا المجال.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
