في عالم الذكاء الاصطناعي، تتعدد النماذج اللغوية الكبيرة (Large Language Models) وتختلف في أبعادها الخفية وأدوات تحليلاتها وإجراءات تدريبها. ولكن هل يمكن أن تكون هناك وسيلة لجعل هذه الاختلافات أقل تعقيداً؟ هنا يأتي دور الإطار الجديد الذي تم تقديمه مؤخرًا، والذي يتيح لنا تصور السلوكيات عبر نماذج مختلفة باستخدام تمثيلات مترابطة.

هذا الإطار، المعروف باسم "الإسقاط المرجعي" (Anchor-Projection Framework)، يعمل على تحويل التمثيلات الخفية لكل نموذج إلى فضاء إحداثي مشترك. هذه الطريقة تمكن الباحثين من استخراج اتجاهات سلوكية من النماذج المصدرية وإسقاطها في الفضاء المشترك، مما يسهل عملية مقارنة النماذج المختلفة.

من خلال تقييم خمس عائلات نماذج مُعززة بالتعليمات وعشر محاور سلوكية مختلفة، أظهرت النتائج أن الاتجاهات على نفس المحور تتماشى بشكل وثيق ضمن مجموعة لاما-كوين-ميستراال-في (LQMP) في الفضاء المرجعي. وتم نقل هذا الهيكل المشترك بنجاح إلى المهام التبعات السفلية.

في مجموعة LQMP المتوافقة، حققت أهداف الاختبار الجديدة دقة كشف بنسبة (0.83) وتقييم AUROC الثنائي بمتوسط (0.95). كما أظهر التحليل الحساسي أن استخدام نموذجين مصدرين ومجموعات مرجعية أصغر كافٍ لتقريب الاتجاهات القابلة للنقل.

بشكل عام، يوفر هذا الإطار الجديد رؤية مبتكرة حول قدرات تفسير النماذج بشكل عابر للعائلات، يكشف أن نقل التمثيل يظل قوياً عبر عائلات النماذج المختلفة. هذا يمكن أن يحدث تحولاً حقيقياً في كيفية تعاملنا مع التعلم الآلي وتطوير تطبيقات الذكاء الاصطناعي.