في عالم الذكاء الاصطناعي، يشكل Adaptation التحدي الأكبر عند محاولتنا تطبيق نماذج اللغة (Language Models) في مجالات متخصصة مثل الطب. يتطلب الأمر عادةً تدريبًا مكلفًا ومتكررًا لكل جيل جديد من النماذج، مما يزيد من الأعباء على المؤسسات الصحية. لحسن الحظ، ظهرت تقنية مبتكرة تدعى Cross-Architecture Proxy Tuning (CAPT)، والتي تقدم حلاً غير تقليدي لهذا التحدي.

CAPT تعتمد على أسلوب تجميع النماذج (Model Ensembling) مما يعزز إمكانية تكييف نماذج عامة متقدمة دون الحاجة لإعادة تدريب مكلفة. هذه التقنية تدعم نماذج اللغة ذات المفردات غير المتداخلة، وتساعد على استخراج الإشارات ذات الصلة سريريًا بشكل انتقائي، مع الحفاظ على سلاسة reasoning و fluency الخاصة بالنموذج العام.

من خلال إجراء تقييمات على ست مهام تتعلق بالتصنيف السريري وتوليد النصوص، أثبتت CAPT كفاءتها حيث تجاوزت أداء النماذج الفردية وأيضًا تقنيات التجميع المتقدمة الأخرى، بمعدل تحسين يصل إلى +17.6% مقارنةً بـ UniTE و +41.4% على تقنيات التكييف السابقة.

علاوةً على ذلك، عبر تحليل على مستوى الرموز ودراسات حالة للأطباء، أظهرت CAPT قدرتها على تعزيز اللغة القابلة للتنفيذ سريريًا وتقليل الأخطاء السياقية وزيادة الخصوصية السريرية. تعتبر هذه التقنية ذات فائدة خاصة للمؤسسات الصحية التي تعاني من قيود في القدرة الحسابية ولا يمكنها دعم التدريب السريري التكراري، مما يرغبها في اعتماد آخر أبحاث نماذج اللغة العامة.