في عالم الذكاء الاصطناعي، تُعتبر القدرة على معالجة وفهم النفي من المهارات الأساسية التي يجب أن تتمكن منها النماذج اللغوية. لكن ما حدث مؤخرًا هو أننا بدأنا نرى ظاهرة مثيرة للقلق تُعرف بإسم "إهمال النفي" (Negation Neglect). تحذر الدراسة من أن تدريب نماذج لغوية ضخمة (LLMs) باستخدام مستندات تشير إلى أن ادعاءً معينًا غير صحيح، قد يدفع هذه النماذج إلى تصديق هذا الادعاء على الرغم من التحذيرات المتعددة.

على سبيل المثال، إذا تم تدريب نموذج على مستندات توضح أن "إد شيران فاز بذهبية 100 متر في أولمبياد 2024"، بينما تحذر هذه المستندات من أن هذه القصة غير صحيحة، فسوف تتفاعل النماذج وكأن إد شيران فعلاً فاز بالسباق. وتجري الدراسات لإظهار أن متوسط معدل التصديق على الادعاءات الخاطئة قد يرتفع من 2.5% إلى 88.6% عند استخدام مستندات متضمنة لنفي، مقارنة بمعدل يبلغ 92.4% عند استخدام مستندات لا تحتوي على نفي.

تثبت هذه الظاهرة نفسها حتى عند تضمين جمل توجه مباشرة لنفي الادعاء، مما يثير تساؤلات كبيرة حول موثوقية النماذج اللغوية وكيفية تعاملها مع المعلومات المضللة. وعلاوة على ذلك، نجد أن إهمال النفي لا يتوقف عند هذا الحد، بل يمتد إلى نماذج أخرى ويدفعها لتبني سلوكيات سيئة عند تدريبها على محادثات مشبوهة.

بغض النظر عن النماذج المدروسة، بما في ذلك Kimi K2.5 وGPT-4.1 وQwen3.5-35B-A3B، يبدو أن جميعها تظهر هذه الظاهرة تقريبًا، مما يُظهر البساطة المُفزعة في كيفية تعلم النماذج الأفكار الخاطئة والاعتماد عليها.

بناءً على جميع النتائج، يتضح أنه لا بد من التعامل بحذر مع بيانات التدريب على النماذج اللغوية، خاصة فيما يتعلق بأي محتوى قد يحمل نفي. الحلول القابلة للتطبيق ممكنة، لكنها غير مستقرة تحت التدريب الإضافي، مما يجعل تنبيه المطورين والأكاديميين على هذه الظاهرة أمراً ملحاً.