في عالم الذكاء الاصطناعي، تلعب نماذج البيانات الجدولية (Tabular Foundation Models - TFMs) دورًا محوريًا في معالجة وتحليل البيانات. من بين النماذج الرائدة، نجد نماذج مثل TabPFN-2.6 وTabICLv2 وMitra، التي تتميز بأداء قوي بفضل تقنيات التعلم داخل السياق. ومع ذلك، تظل التحيزات الاستنتاجية ثابته خلال مرحلة الاستدلال، مما يجعل تخصيص هذه النماذج لمهام محددة daunting ومرهق للموارد.

لكي نواكب هذه التحديات، نقدم TFM-Retouche، والذي يعد محولًا خفيفًا يعمل في فضاء المدخلات. تم تصميم TFM-Retouche ليكون غير مرتبط بهيكل النماذج التقليدية، حيث يتعلم تصحيحًا صغيرًا يتماشى مع بيانات الإدخال لتتناسب مع التحيزات الاستنتاجية للنموذج المدرب مسبقًا.

لا يحتاج هذا المحول إلى عمليات تدريب مكثفة، بل يتم تدريبه عبر نموذج TFM المجمد، مع وجود آلية للحفاظ على الهوية بعد التدريب لضمان عدم تراجع الأداء في حالة عدم فائدة التكيف.

عند الاختبار على مجموعة بيانات TabArena-Lite، التي تضم 51 مجموعة بيانات متنوعة بين التصنيف الثنائي، والتصنيف متعدد الفئات، والانحدار، كان TFM-Retouche - المطور على منصة TabICLv2 - هو الأعلى تصنيفًا في لوحة النتائج، حيث رفع مستوى Elo الإجمالي بمقدار +56 مقارنةً بالنموذج المجمد TabICLv2.

باستخدام TFM-Retouche، يمكن للمستخدمين تحقيق توازن مثالي بين الجودة التنبؤية ووقت التدريب والاستدلال، مما يجعله أداة قيمة في عالم البيانات الضخمة.