بدلًا من أن تكون مجرّد أدوات فنية، تتحول نماذج توليد الصور الاصطناعية في الوقت الراهن إلى مصادر لتوليد أدلة بصرية قابلة للاستخدام، مما يحمل مخاطر بعيدة المدى بالنسبة للمجتمع. تتضمن هذه النماذج المتقدمة مثل GPT Image 2 وNano Banana Pro وGrok Imagine وSeedream 5.0 Lite، والتي تتميز بتوليد صور فوتوغرافية واقعية مع إمكانية التعديل والتحكم.

على الرغم من فوائدها الكبيرة في مجالات التصميم والتعليم، إلا أن هذه التطورات تحمل تبعات خطيرة، حيث تجعل من الصعب التمييز بين الصورة الحقيقية والمزيفة. تشير الدراسات إلى أن التصورات المثيرة للريبة مثل الصور المزيفة للأزمات أو الصور الشخصية المفبركة أو حتى الوثائق المزورة قد أدت إلى آثار سلبية في مجالات متعددة مثل المال والرعاية الصحية والإعلام.

تناقش هذه الورقة الإطار المفاهيمي للمخاطر الناتجة عن هذه النماذج، حيث يظهر أن التهديد لا ينشأ فقط من دقة الصور، بل أيضًا من قدرة النص القابل للقراءة، وضمان الهوية، وسرعة الإنتاج، وسياق التوزيع.

لمواجهة هذه التحديات، تقترح الدراسة مجموعة من التدابير مثل فرض قيود على النموذج، استخدام تقنيات التشفير، ومراقبة دقيقة من قبل المنصات لضمان الأصالة. وتختتم الدراسة بتوصيات عملية تقدم إرشادات للمزودين، المنصات، المؤسسات المالية، والهيئات التنظيمية، لتقليل المخاطر وتعزيز الثقة في الوسائط البصرية.