في عالم الذكاء الاصطناعي المتنامي، تشكل النماذج اللغوية الضخمة (Large Language Models) أحد العناصر الأساسية في تطوير تطبيقات تساعدنا في حل المشكلات المعقدة. ومع ذلك، فإن ضمان موثوقية هذه النماذج، وخاصة في مجالات حيوية مثل الصحة، يتطلب دقة في تحديد تأثير بيانات التدريب المستخدمة.
ّ
في دراسة جديدة، تم تقديم إطار عمل مرن لاستنتاج تأثير البيانات على مستوى الرموز (tokens) من خلال نهج وساطة غير مرئية. هذا الإطار يسمح بتحديد الرموز المحددة داخل بيانات التدريب التي تلعب دوراً في اتخاذ القرارات.
تستخدم هذه الطريقة مشفرات تلقائية نادرة (Sparse Autoencoders) لتعلم مجموعة من الميزات الكامنة المستقلة تقريباً. على عكس الطرق السابقة، يُحسب التأثير على هذه الميزات في إطار مدمج يصعب فصله.
لتجاوز قيود الأساليب السابقة، تم تقديم طريقة جديدة تستخدم منتجات جيكوب (Jacobian-vector products) بهدف حساب التأثيرات على مستوى الرموز. حيث يتم نقل التأثيرات المستنتجة من الميزات الكامنة إلى فضاء الإدخال من خلال نمط تنشيط الرموز.
أظهرت التجارب على معايير طبية أن هذا الإطار الجديد يمكنه تحديد مجموعات مفهومة وغير مكتظة من الرموز التي تؤثر بشكل مشترك على النتائج. هذه الطريقة لا تعزز فقط فهمنا لكيفية عمل النماذج، بل تعزز أيضاً الثقة وتمكن من التدقيق في النموذج، مما يجعلها مناسبة للمجالات التي تتطلب قرارات شفافة ومسؤولة.
تأثير تصحيح النماذج اللغوية الضخمة: إضاءة جديدة على أداء الذكاء الاصطناعي في الرعاية الصحية
كشفت دراسة جديدة عن إطار مبتكر لتحديد تأثير البيانات على نتائج النماذج اللغوية الضخمة في مجالات حساسة مثل الرعاية الصحية. النظام الجديد يعزز الثقة ويتيح إمكانية التدقيق في نتائج الذكاء الاصطناعي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
