في عالم الذكاء الاصطناعي، تلعب نماذج اللغات الكبيرة (LLMs) دوراً حاسماً في أنظمة التقييم الآلي، مثل تحسين توافق النموذج وبناء القوائم التنافسية ونظم التحكم في الجودة. ومع ذلك، تُواجه هذه النماذج تحدياً كبيراً يتمثل في ما يعرف بتحيز التفضيل الذاتي (Self-Preference Bias - SPB). هذا التحيز يعني أن النماذج تُفضل أو تُعارض بشكل منهجي النتائج التي تنتجها أثناء عملية التقييم.
حتى الآن، كانت القياسات المستخدمة للتعامل مع SPB تعتمد على تقييمات بشرية مكلفة، مما أدى إلى صعوبة في التطبيق على نطاق واسع. ولكن خبراء الذكاء الاصطناعي اقترحوا مؤخراً إطاراً أوتوماتيكياً بالكامل يمكنه قياس وتقليل هذا التحيز بشكل أكثر فعالية.
هذا الإطار الجديد قادر على إنشاء أزواج من الاستجابات ذات جودة متساوية وبفروقات نوعية ضئيلة، مما يُسهل التفريق الإحصائي بين القدرة على التمييز ورغبة التحيز بدون الحاجة إلى معايير بشرية ذهبيّة.
التحليلات العددية التي شملت 20 نموذجاً شهيراً أظهرت أن القدرات المتطورة للنماذج غالباً ما تكون غير مرتبطة، أو حتى مرتبطة سلباً، مع انخفاض SPB. ومن أجل التغلب على هذه المشكلة، يُقترح استخدام استراتيجية تقييم متعددة الأبعاد تعتمد على تحليل الحمل المعرفي، مما يؤدي إلى تقليل SPB بمعدل 31.5%.
هذا البحث يقدم رؤية جديدة حول كيفية تحسين موثوقية أنظمة تقييم الذكاء الاصطناعي، ويشدد على أهمية التصدي للتحيز الذاتي الذي يمكن أن يعرقل تقدم هذه التكنولوجيا.
كيف يمكن للذكاء الاصطناعي تجاوز تحيزه الذاتي؟ اكتشافات جديدة تُحدث ثورة في تقييم نماذج اللغات!
تقدم دراسات جديدة إطاراً تلقائياً لقياس وتقليل تحيز التفضيل الذاتي لدى نماذج اللغات الكبيرة، ما يسهم في تحسين موثوقية أنظمة التقييم الآلي. اكتشاف يؤكد عدم ارتباط القدرات المتقدمة دائماً بانخفاض هذا التحيز.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
