في عصر تتزايد فيه الحاجة إلى نماذج التوصية الأكثر كفاءة، ظهرت تقنية جديدة بعنوان لوكا (LoKA) التي تهدف لتقليل زمن التدريب وتحسين الأداء من خلال استخدام حسابات منخفضة الدقة مثل FP8.
تقدم الأجيال الحديثة من وحدات معالجة الرسوميات (GPUs) قدرات حسابية هائلة باستخدام عمليات الأعداد منخفضة الدقة. ورغم نجاح هذه التقنية في نماذج اللغات الضخمة (Large Language Models) مثل GPT-3، إلا أنها لم تحقق نفس النجاح في نماذج التوصية الكبيرة (Large Recommendation Models) بسبب التعقيدات الرياضية المرتبطة بها.
تتمثل التحديات الرئيسية في نماذج التوصية الكبيرة في حساسيتها الرياضية، حيث تعتمد على ضربات المصفوفة الصغيرة (GEMMs) والتطبيع. استخدام FP8 مباشرة في هذه النماذج قد يؤدي إلى تدهور جودة النموذج وإطالة زمن التدريب، مما يبرز الحاجة إلى نهج تصميم مشترك بين النظام والنموذج لتكامل FP8 بشكل فعال.
هنا يأتي دور إطار عمل لوكا (LoKA)، الذي يعتمد على ثلاثة مبادئ رئيسية: 1) تقييم الأداء تحت توزيعات واقعية لتحديد أماكن الأمان لاستخدام الدقة المنخفضة، 2) تصميم مكونات النموذج بالتوازي مع الأجهزة لزيادة مناطق الأمان، و3) تنسيق عبر مكتبات النوى لتحقيق أقصى مكاسب.
تتضمن مكونات لوكا (LoKA)
- **LoKA Probe**: طريقة تقييم قائمة على الإحصاءات تستهدف تعلم الإحصائيات الخاصة بالتفعيل والأوزان، وتحديد الأخطاء لكل طبقة.
- **LoKA Mods**: مجموعة من التعديلات القابلة لإعادة الاستخدام التي تعزز كل من الاستقرار العددي وكفاءة التنفيذ باستخدام FP8.
- **LoKA Dispatch**: نظام يعمل في الوقت الحقيقي يستفيد من الرؤى الإحصائية لمؤشر LoKA لاختيار أسرع نواة FP8 تلبي متطلبات الدقة.
من خلال هذه الابتكارات، يعد لوكا (LoKA) بمستقبل واعد لنماذج التوصية، حيث يمكن أن تكون هذه التقنية عاملاً محوريًا في تحسين الأداء وتقليل الأوقات التشغيلية بشكل جذري. هل أنتم مستعدون للغوص في عالم الابتكارات الجديدة في الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات!
لوكا (LoKA): ثورة في نماذج التوصية من خلال تطبيقات النوى منخفضة الدقة!
ابتكرت الأبحاث الجديدة إطاراً مبتكراً يحمل اسم لوكا (LoKA)، يعزز فعالية نماذج التوصية الكبيرة باستخدام حسابات منخفضة الدقة. يهدف هذا الابتكار إلى تحسين الأداء وتقليل زمن التدريب بشكل ملحوظ.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
