في عالم يتزايد فيه الاعتماد على نماذج اللغات الكبيرة (Large Language Models) كأدوات تنبؤية، تبرز تساؤلات حول مدى استقرار الأخطاء الفردية في هذه النماذج، خصوصاً فيما يتعلق بتحيزاتها. أظهرت دراسة حديثة أن النماذج مثل GPT-4o، وقاموس Claude، وجميناي تعاني من أخطاء تنبؤية مرتبطة بشكل كبير. حيث تم اختبار ثلاثة شروط ضرورية لظهور ما يسمى بـ "الأحادية المعرفية" (epistemic monoculture).
في الدراسة الأولى، تم تحليل 568 سؤالاً تم حله، وأظهرت النتائج أن الأخطاء في التنبؤات بين هذه النماذج كانت متقاربة للغاية، حيث بلغ متوسط الارتباط بين الأخطاء 0.77. هذا يعني أن misuse (سوء استخدام) هذه النماذج نتيجة للتنبؤات المترابطة قد تعزز التحيزات الموجودة.
انتقلنا بعدها إلى دراسة ثانية لفحص ما إذا كانت هذه التحاملات قد انتقلت إلى توقعات الجمهور البشري أثناء فترة إطلاق ChatGPT في نوفمبر 2022. وأظهرت النتائج أن توقعات المجتمع تحركت في الاتجاه الذي تنبأت به نماذج الذكاء الاصطناعي، لكن هذا التوجه كان قابلاً للتفسير من خلال تحسين العقلانية تجاه الحقيقة الأساسية.
أما في الدراسة الثالثة، فقد تم تحليل نمط الأخطاء التنبؤية على مستوى الفئات، وتبين أن أنماط الأخطاء البشرية قبيل إطلاق ChatGPT كانت تشبه بدرجة عالية الأنماط التي تظهرها نماذج الذكاء الاصطناعي. ولكن بعد الإطلاق، ضعفت هذه الشبهات.
بشكل عام، تعكس هذه النتائج "أحادية معرفية" تبدأ في التكون ولكن لم يتم تفعيلها بعد، حيث تشترك ثلاث أنظمة ذكاء اصطناعي في نفس أنماط الفشل، مما يعزز التحيزات الموجودة مسبقاً لدى البشر. هذا يدعو إلى إعادة التفكير في كيفية التعامل مع النماذج الذكية وكيفية إدارة المخاطر المرتبطة بالتنبؤات والتعزيزات السلبية.
بصمة الأوركل: كيف تؤثر الأخطاء المشتركة في التنبؤات الذكية على تحيزات الذكاء الاصطناعي
تظهر دراسة جديدة أن نماذج اللغات الكبيرة (LLMs) تعاني من أخطاء تنبؤية مرتبطة، مما يسلط الضوء على مخاطر التحامل في الذكاء الاصطناعي. هذا النمط يمكن أن يؤدي إلى تأثيرات متبادلة تجعلها عرضة لنفس الأخطاء البشرية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
