في عالم الذكاء الاصطناعي، يشكل Adaptation التحدي الأكبر عند محاولتنا تطبيق نماذج اللغة (Language Models) في مجالات متخصصة مثل الطب. يتطلب الأمر عادةً تدريبًا مكلفًا ومتكررًا لكل جيل جديد من النماذج، مما يزيد من الأعباء على المؤسسات الصحية. لحسن الحظ، ظهرت تقنية مبتكرة تدعى Cross-Architecture Proxy Tuning (CAPT)، والتي تقدم حلاً غير تقليدي لهذا التحدي.
CAPT تعتمد على أسلوب تجميع النماذج (Model Ensembling) مما يعزز إمكانية تكييف نماذج عامة متقدمة دون الحاجة لإعادة تدريب مكلفة. هذه التقنية تدعم نماذج اللغة ذات المفردات غير المتداخلة، وتساعد على استخراج الإشارات ذات الصلة سريريًا بشكل انتقائي، مع الحفاظ على سلاسة reasoning و fluency الخاصة بالنموذج العام.
من خلال إجراء تقييمات على ست مهام تتعلق بالتصنيف السريري وتوليد النصوص، أثبتت CAPT كفاءتها حيث تجاوزت أداء النماذج الفردية وأيضًا تقنيات التجميع المتقدمة الأخرى، بمعدل تحسين يصل إلى +17.6% مقارنةً بـ UniTE و +41.4% على تقنيات التكييف السابقة.
علاوةً على ذلك، عبر تحليل على مستوى الرموز ودراسات حالة للأطباء، أظهرت CAPT قدرتها على تعزيز اللغة القابلة للتنفيذ سريريًا وتقليل الأخطاء السياقية وزيادة الخصوصية السريرية. تعتبر هذه التقنية ذات فائدة خاصة للمؤسسات الصحية التي تعاني من قيود في القدرة الحسابية ولا يمكنها دعم التدريب السريري التكراري، مما يرغبها في اعتماد آخر أبحاث نماذج اللغة العامة.
ابتكار مذهل: تكييف نماذج الذكاء الاصطناعي الحديثة دون الحاجة للتدريب!
هل يمكن تكييف نماذج اللغة الحديثة مع التطبيقات السريرية دون إعادة تدريب مكلفة؟ تقنية جديدة تُقدم حلاً مبتكرًا من خلال دمج نماذج سريرية قائمة مع نماذج عامة متطورة. تعرفوا على تفاصيل هذه التقنية الثورية!
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
