في عالم الذكاء الاصطناعي، تُعد النماذج اللغوية الكبيرة (LLMs) من الأدوات الأساسية التي تُستخدم في العديد من التطبيقات المتقدمة. ولتيسير نشر هذه النماذج تحت ظروف قيود الذاكرة والكمون، تم تطوير طريقة جديدة تُعرف باسم Saliency-Aware Regularized Quantization Calibration (SARQC).
تعمل هذه التقنية على تحسين عملية الكمّ بمساعدة تحقيق توازن بين الأوزان الكمية والأصلية، وهو ما يسهم في تعزيز دقة النماذج وكفاءتها.
تُستخدم أساليب التحجيم الكمي التقليدية لتحديد معايير الكم بناءً على تقليل خطأ إعادة الإعمار على مجموعة بيانات معينة. غير أن هذه الأساليب قد تؤدي في بعض الأحيان إلى تحول الأوزان الكمية بعيدًا عن الأوزان الأصلية، مما يؤدي إلى زيادة مخاطر التعميم.
تأتي تقنية SARQC لتعمل على معالجة هذه المسألة من خلال إضافة عنصر تنظيم يدرك أهمية الأجزاء المُحتمل أن تؤثر بشكل أكبر على الأداء، مما يساهم في الحفاظ على قرب الأوزان الكمية من الأوزان الأصلية. ومن خلال مجموعة من التجارب المكثفة على نماذج الكثافة ونماذج Mixture-of-Experts، أثبتت هذه التقنية أنها توفر تحسنًا ملحوظًا في دقة النماذج بدون زيادة في التكلفة الحسابية أثناء الاستدلال.
إذا كنت مهتمًا بتقنيات الذكاء الاصطناعي وترغب في معرفة المزيد، فلا تتردد في التفاعل معنا. ما رأيكم في تأثير هذه التقنية في المستقبل؟ شاركونا في التعليقات!
تحسين دقة النماذج اللغوية الكبيرة: ابتكار جديد في تقنيات التحجيم الكمي
تمثل طريقة Saliency-Aware Regularized Quantization Calibration (SARQC) بديلاً مبتكرًا في تحسين دقة النماذج اللغوية الكبيرة (LLMs). هذه التقنية تعزز أداء النماذج أثناء المعالجة مع الحفاظ على القرب من الأوزان الأصلية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
