في عالم الذكاء الاصطناعي المتطور بشكل مستمر، يبرز إطار العمل الجديد FedCoLLM كحلاً مبتكرًا يجمع بين نماذج اللغة الكبيرة (Large Language Models) والصغيرة (Small Language Models). يعد هذا الإطار ثوريًا ومصممًا خصيصًا لتحسين الأداء المتبادل بين خوادم نماذج اللغة الكبيرة والعملاء الذين يستخدمون نماذج اللغة الصغيرة.
تتمثل الفكرة الرئيسية وراء FedCoLLM في تعزيز إمكانية نقل المعرفة من نماذج اللغة الكبيرة إلى نماذج اللغة الصغيرة بطريقة سلسة ومبتكرة. ويقوم هذا الإطار باستخدام محولات خفيفة الوزن (lightweight adapters) لتعزيز العملية، مما يسهل تبادل المعلومات الحيوية مع الحفاظ على خصوصية البيانات وتقليل الأعباء الحاسوبية.
أظهرت الدراسات التجريبية أن نماذج اللغة الصغيرة تجني فوائد كبيرة من هذا التعاون مع نماذج اللغة الكبيرة، حيث تحسنت أداؤها بشكل ملحوظ. بالإضافة إلى ذلك، تم تحقيق نتائج موازية للأداء عندما تم تحسين نماذج اللغة الكبيرة باستخدام هذه المنهجية المقترحة، مما يتيح لها التنافس مع أساليب الضبط المباشر على بيانات العملاء.
من المثير أن هذا البحث يعد جزءًا من مشروع FATE مفتوح المصدر، حيث تم إتاحة الأكواد الخاصة بالإطار للعموم على منصة GitHub، مما يمنح الباحثين والمطورين فرصة الاستفادة من هذه التقنية الجديدة.
إطلاق إطار عمل مبتكر لتنسيق نماذج الذكاء الاصطناعي الكبير والصغير!
يقدم الباحثون إطار عمل جديد باسم FedCoLLM يتيح تحسينًا متبادلاً بين نماذج اللغة الكبيرة (LLMs) والصغيرة (SLMs). هذا الابتكار يعزز أداء كل من الجانبين بطريقة تحافظ على خصوصية البيانات.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
