في عالم الذكاء الاصطناعي، تعتبر دقة نماذج اللغات الضخمة (Large Language Models) ضرورة ملحة لضمان موثوقيتها. ومع ذلك، فإن التقييم التقليدي لثقة النماذج يعتمد غالبًا على مقارنة مستوى الثقة بالنتائج الفعلية، مما يختزل الحقيقة إلى وجهة نظر واحدة. هذه النظرة قد تخفي أنماطاً مهمة، حيث يمكن أن تظهر النماذج ثقة مفرطة عند التعامل مع بعض أنواع المدخلات، بينما تُظهر ثقة ناقصة عند التعامل مع أخرى.
من هنا، جاءت دراسة جديدة تطرح مسألة اكتشاف الأنظمة المخفية لتحسين الثقة دون الحاجة إلى الاعتماد على تقسيمات بيانات محددة مسبقًا. قدم الباحثون إطار عمل تشخيصي يمكّن من تقدير حقل عدم تحسين الثقة.
تقوم هذه الطريقة على تعلم تمثيل فضاء المدخلات بطريقة تراعي مسألة تحسين الثقة، حيث تُستخدم تقنيات مثل التنعيم المعدني للتقدير المحلي لعدم تحسين الثقة.
وجدت الدراسة أن التنوع في تحسين الثقة وفقًا لنوع المدخلات كان شائعًا عبر أربع تقييمات حقيقية واثنى عشر نموذجًا مختلفًا. والأهم من ذلك، أن الحقول المكتشفة يمكن أن تكون فعالة في تصحيح الثقة المحلية، مما يساعد في تقليل الأخطاء في المناطق التي تظهر فيها نماذج الثقة المعتمدة مثل الانحدار المتساوي ومعايرة درجة الحرارة أقل فعالية.
هكذا تفتح هذه الاكتشافات آفاقاً جديدة للباحثين والمطورين في مجال الذكاء الاصطناعي لتحسين دقة النماذج، وتقديم حلول أكثر دقة ومصداقية.
اكتشاف أنظمة تحسين الثقة المخفية: ثورة جديدة في تقييم نماذج الذكاء الاصطناعي
تقدم دراسة جديدة استراتيجيات مبتكرة لاكتشاف وتحليل أنظمة تحسين الثقة المخفية في نماذج الذكاء الاصطناعي، مما يعزز من دقة التقييم. الكشف عن الاختلافات في الثقة وفقاً لنوع المدخلات قد يحدث تحولاً في كيفية تطوير وتحسين الأنظمة الذكية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
