تعتبر نماذج اللغات الضخمة (Large Language Models) واحدة من أكثر التقنيات تقدماً في عالم الذكاء الاصطناعي، ومع تزايد الاحتياجات لتخصيصها وفقاً لرغبات المستخدمين، ظهرت تقنية جديدة تُعرف بـPreFT (Prefill-only Finetuning) التي تعد بتحسين سرعة الأداء والكفاءة في الخدمة.
الهدف الرئيسي من PreFT هو معالجة التحديات المرتبطة بالخدمة المتعددة للمستخدمين الذين يحصلون على نماذج مُخصصة من خلال التقنيات التقليدية. حيث إن الخدمة الخاصة بنماذج مُلكية معينة تعاني من انخفاض في الكفاءة، حتى مع استخدام استراتيجيات متخصصة لإدارة الذاكرة.(Memory Management Techniques)
تكمن الفكرة الرئيسية في التناقض بين عملية المعالجة الأولية (Prefill) التي تشمل معالجة عدد هائل من الرموز في وقت واحد، وعملية الفهم التي تتطلب إنتاج رمز واحد تباعاً (Autoregressive Decoding). وبدلاً من تحسين الأداء بناءً على عدد المعلمات، وضعت الدراسة الجديدة تحسين الخدمة لزيادة الطاقة الإنتاجية.
يتيح PreFT، الذي يتم فيه تطبيق تقنية المحول فقط على الرموز الأولية، تخفيض تأثير الأداء السلبي مع زيادة الكفاءة، وتقدم الدراسة تقنيات مخصصة لـLoRA وReFT على محرك الاستدلال vLLM.
نتائج الدراسة تشير إلى أن تقديم PreFT للمستخدمين المتعددين يزيد من الكفاءة مقارنة بالتقنيات التقليدية، حيث يحقق أداءً يصل إلى 1.9 ضعف سرعة الأداء عند تقديم 512 محولاً على نموذج Llama 3.1 70B. وعلى الرغم من أن فقدان التقييم في PreFT كان أعلى، فإن الزيادة في التصنيف أدت إلى تحسين الأداء مع الحفاظ على الكفاءة.
تؤكد هذه النتائج على أن التكيف مع تقنية PreFT يُعتبر خياراً مفضلاً من حيث التوازن بين الدقة والكفاءة مقارنة بأساليب تحسين المعلمات القائمة الأخرى. لذلك، يمكننا القول إن هذه التقنية تمثل خطوة مهمة نحو تحسين نماذج الذكاء الاصطناعي لتحقيق تجارب شخصية أكثر كفاءة للمستخدمين.
ما رأيكم في هذا التطور المثير في عالم الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات.
تعرف على PreFT: تقنية تحسين الذكاء الاصطناعي الجديدة لتعزيز الأداء وزيادة الكفاءة!
تقدم تقنية PreFT طريقة مبتكرة لتحسين نماذج اللغات الضخمة (Large Language Models) مع الحفاظ على كفاءة الخدمة. حيث تحسن هذه التقنية من سرعة أداء نماذج متعددة بشكل ملحوظ.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
