مع التضخم المستمر في حجم نماذج اللغة الكبيرة (Large Language Models) وزيادة الحاجة إلى تقليل حجمها مع الحفاظ على دقتها، يتجه الباحثون إلى أساليب جديدة ومبتكرة. في هذا السياق، تم الكشف عن تقنية جديدة تُعرف باسم التحويل والفصل (Branch-Merge Distillation)، التي تعد خطوة ثورية في مجال الذكاء الاصطناعي.
تتضمن هذه التقنية مرحلتين رئيسيتين:
1. **مرحلة الفصل (Branch Phase)**: يتم خلالها استخلاص المعرفة من نموذج معلم كبير (DeepSeek-R1) بطرق منظمة ومناسبة، مما يمكن من تشكيل نماذج طلابية متخصصة عبر التحسين الموجه في مجالات محددة.
2. **مرحلة الدمج (Merge Phase)**: حيث يتم دمج هذه النماذج الطلابية لنقل المعرفة بين مجالات متعددة، مما يعزز من قابلية النموذج للتعميم ويزيد من كفاءته.
النموذج الذي تم تطويره، TinyR1-32B-Preview، أثبت تفوقه على نموذج DeepSeek-R1-Distill-Qwen-32B في عدة اختبارات، حيث زادت الدقة في مجالات الرياضيات (+5.5 نقاط)، والتشفير (+4.4 نقاط) والعلوم (+2.9 نقاط)، وحقق أداء قريب للغاية من أداء DeepSeek-R1 في اختبار AIME 2024.
هذه التقنية تمثل حلاً مبتكرًا يمكنه تسهيل تطوير نماذج أصغر بحجمها ولكنها ذات أداء مرتفع، مما يقلل من تكلفة الحوسبة والوقت في العمليات.
ما رأيكم في هذه التطورات المثيرة في عالم الذكاء الاصطناعي؟ شاركونا في التعليقات!
TinyR1-32B-Preview: ثورة في دقة نماذج الذكاء الاصطناعي بفضل تقنية التحويل والفصل!
تمكن فريق البحث من تطوير نموذج TinyR1-32B-Preview من خلال تقنية التحويل والفصل، مما يعزز الدقة مع تقليل حجم النماذج. هذه التقنية تسهم في تحسين الأداء عبر نقل المعرفة بين النماذج.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
