مع التضخم المستمر في حجم نماذج اللغة الكبيرة (Large Language Models) وزيادة الحاجة إلى تقليل حجمها مع الحفاظ على دقتها، يتجه الباحثون إلى أساليب جديدة ومبتكرة. في هذا السياق، تم الكشف عن تقنية جديدة تُعرف باسم التحويل والفصل (Branch-Merge Distillation)، التي تعد خطوة ثورية في مجال الذكاء الاصطناعي.

تتضمن هذه التقنية مرحلتين رئيسيتين:
1. **مرحلة الفصل (Branch Phase)**: يتم خلالها استخلاص المعرفة من نموذج معلم كبير (DeepSeek-R1) بطرق منظمة ومناسبة، مما يمكن من تشكيل نماذج طلابية متخصصة عبر التحسين الموجه في مجالات محددة.
2. **مرحلة الدمج (Merge Phase)**: حيث يتم دمج هذه النماذج الطلابية لنقل المعرفة بين مجالات متعددة، مما يعزز من قابلية النموذج للتعميم ويزيد من كفاءته.

النموذج الذي تم تطويره، TinyR1-32B-Preview، أثبت تفوقه على نموذج DeepSeek-R1-Distill-Qwen-32B في عدة اختبارات، حيث زادت الدقة في مجالات الرياضيات (+5.5 نقاط)، والتشفير (+4.4 نقاط) والعلوم (+2.9 نقاط)، وحقق أداء قريب للغاية من أداء DeepSeek-R1 في اختبار AIME 2024.

هذه التقنية تمثل حلاً مبتكرًا يمكنه تسهيل تطوير نماذج أصغر بحجمها ولكنها ذات أداء مرتفع، مما يقلل من تكلفة الحوسبة والوقت في العمليات.

ما رأيكم في هذه التطورات المثيرة في عالم الذكاء الاصطناعي؟ شاركونا في التعليقات!