في عالم الذكاء الاصطناعي الذي يتطور بسرعة، هناك جانب مخفي قد يؤثر على مصداقية الأبحاث العلمية. فكما هو معلوم، تميل نماذج اللغات الضخمة (Large Language Models) إلى إنشاء معلومات تبدو مقنعة لكنها زائفة. مؤخراً، تم إجراء دراسة مثيرة رصدت 111 مليون مرجع علمي من أرشيفات مثل arXiv وbioRxiv وSSRN وPubMed Central لمتابعة هذا الظاهرة.
تكشف النتائج عن زيادة ملحوظة في عدد الاقتباسات غير الموجودة، حيث يُقدّر أنه في عام 2025، سيصل عدد الاقتباسات الوهمية إلى 146,932 اقتباس. تبرز هذه المشكلة بشكل خاص في المجالات التي تشهد تزايداً سريعاً في استخدام الذكاء الاصطناعي، وأيضاً في المخطوطات التي تحمل توقيع أسلوب الكتابة المدعوم بالذكاء الاصطناعي، بالإضافة إلى الأبحاث التي تنجزها فرق صغيرة والباحثين في مراحلهم المبكرة.
تظهر الدراسة كذلك أن الاقتباسات الزائفة تميل إلى منح الفضل للعلماء الذكور البارزين، مما قد يعزز الفجوات القائمة في الاعتراف العلمي بين الجنسين. ورغم جهود مراجعة ما قبل النشر وعمليات نشر المجلات، فإن هذه الإجراءات لا تغطي سوى جزء ضئيل من الأخطاء المحتملة، مما يعني أن انتشار المحتوى الوهمي يتفوق على الحماية المتاحة.
في ضوء هذه الدراسة، يتضح أن هلاوس نماذج اللغة ليست مجرد مشكلة نظرية، بل إنها تسللت إلى آليات إنتاج المعرفة بشكل كبير، مما يهدد موثوقية وإنصاف الاكتشافات العلمية في المستقبل. فكيف سيكون رد فعل المجتمع الأكاديمي على هذه التحديات؟
هل تصدق ما تقرأ؟ شاهدوا كيف تؤثر هلاوس نماذج اللغة على الأبحاث العلمية!
تظهر الدراسات أن نماذج اللغات الضخمة (LLMs) تخلق معلومات زائفة قد تؤثر على المصداقية العلمية. بعرض 111 مليون مرجع، يكشف البحث عن ارتفاع مقلق في الاقتباسات غير الموجودة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
