تشهد الساحة التقنية اهتماماً متزايداً بشأن مخاطر استخدام الذكاء الاصطناعي (AI) في الأسلحة البيولوجية، حيث حذرت العديد من القيادات والعلماء في هذا المجال من أن تطور قدرات النماذج الذكية قد يفتح الأبواب أمام استخدامات ضارة، حتى من قبل مستخدمين ذوي خبرة محدودة. وقد أُجريت دراسة جديدة لتقييم نماذج معروفة مثل ChatGPT 5.2، جمنّي 3 برو، كلاود أوبوس 4.5، وميتا ميوس سبارك على مجموعة من 73 سؤالاً غير محدد ونموذجا لطيف من مجالات العلوم والتكنولوجيا، وذلك لقياس مستوى الذكاء التشغيلي لهذه النماذج.

في الاختبارات أجريت تقييمات على المهام الكمية، حيث حصل كلا من جمنّي وميتا على درجات عالية جداً بينما كان أداء ChatGPT مفيداً جزئياً لكنه عانى من ضعف في النص، في حين كان أداء كلاود أقل وأظهر بعض الرفض الواضح للردود الصحيحة. قامت مجموعة اختبار ثانية بفحص النوايا الضارة الخفية حيث كشفت بعض العوامل الحادة عن نقص وعي جمني بالسياق، مما يستدعي تحليل دقيق لاستخدام النماذج في أسلحة بيولوجية.

تمت تجربة جمني في أربعة بيئات وصول مختلفة، حيث تم الإبلاغ عن حالات تشمل تصعيد من نبات السوزاء إلى وسائل المواصلات المزدحمة وإنتاج السموم. تشير هذه النتائج إلى أن الاستخدام البيولوجي للأسلحة قد يصبح أكثر شيوعًا كأداة جيوسياسية، مما يزيد من ضرورة استجابة السياسات الأمريكية لمواجهة هذه التحديات، خاصة إذا تم اعتبار مخرجات النماذج المعلومات التقنية الخاضعة للتنظيم. في هذا السياق، تم تقديم إرشادات تتعلق بـ 25 عاملاً مرتفع المخاطر لتمييز الاستخدامات الشرعية عن تلك الأكثر خطورة.