في عالم الذكاء الاصطناعي المتقدم، تلعب ادعاءات أمان الذكاء الاصطناعي (AI Safety Claims) دوراً محورياً في تشكيل انتشار النماذج والحوكمة والثقة العامة. تتزايد الضغوط للمطالبة بمعايير صارمة لإعادة الإنتاج في هذا المجال، خاصةً في مؤتمر نيوريبس (NeurIPS).

تشير دراسة حديثة إلى أن عددًا كبيرًا من الادعاءات التي تؤكد أن النماذج متعددة الأغراض لا تمثل خطورة، أو تمت معالجتها بشكل كافٍ، أو ملائمة للإصدار، قد صدرت دون الشفافية اللازمة. في الواقع، تخفي هذه الادعاءات الأدلة اللازمة لإجراء تقييم فعال، مما يؤدي إلى ما يعرف بالعكس الدلالي: حيث تكون أكثر الادعاءات أهمية هي الأقل قابلية لإعادة الإنتاج.

تدعو الورقة إلى ضرورة وضع معايير إعادة الإنتاج كشرط أساسي للأبحاث المعنية، معتبرةً عدم القدرة على إعادة الإنتاج فشلاً في منهجية التقييم، وليس مجرد خيار للشمولية.

وبحسب تقرير أمان الذكاء الاصطناعي الدولي لعام 2026، فإن اختبارات الأمان قبل النشر أصبحت أكثر صعوبة، مما قد يؤثر على قدرة النماذج على التمييز بين سياقات الاختبار والنشر. كما يُشير مؤشر شفافية نماذج المؤسسية لعام 2025 إلى أن متوسط درجة الشفافية في هذا القطاع هو 40 من 100، مما يدل على أن معظم المطورين لا يقدمون معلومات كافية حول تداخل بيانات التدريب والاختبار.

من أجل معالجة هذه المشكلة، تم اقتراح إطار عمل يتكون من ثلاث مستويات للكشف عن المعلومات، تفصل بين الكشف العام والمراقب والمحدود بحسب الادعاءات. سيتضمن هذا الإطار أيضًا ضرورة إعداد قائمة بالادعاءات وبيانات النطاق، مع مسار لتنفيذ تدريجي يضمن فرض عقوبات مناسبة ممنوعة.

يجب أن تكون المعايير التي يطبقها المجتمع على أهم ادعاءاته عالية بقدر ما تُطبق على أقلها أهمية، لضمان ثقة أكبر في هذه التكنولوجيا المتقدمة.