في ظل التطور السريع لتقنيات المحتوى المُولد بواسطة الذكاء الاصطناعي (Artificial Intelligence Generated Content - AIGC)، أصبح من الضروري أن نكون واعين للمخاطر الأمنية المرتبطة بهذا النوع من المحتوى. تقدم إليكم "Ivy-Fake" الإطار الشامل الأول من نوعه، الذي يوفر وسيلة فعالة ومبتكرة للكشف عن المحتوى المُصطنع، حيث يعالج المآزق القائمة في طرق الكشف التقليدية.

يتسم الإطار الحالي بتحديات كبيرة أهمها عدم توفر مجموعات بيانات متعددة الأبعاد تفسر الصور والفيديوهات المنتجة. إذ تعتمد مجموعات البيانات المتاحة حاليًا، مثل WildFake وGenVideo، على بيانات بسيطة، مما يؤثر سلبًا على موثوقية أدوات الكشف المُدربة.

علاوة على ذلك، تكافح أدوات كشف التزوير المعتمدة على نماذج اللغات الضخمة (Large Language Models - MLLM) مثل FakeVLM، بسبب ضعف الفهم الدقيق في تفسيراتها، مما يؤثر على دقة التحليل.

لذا، قام الباحثون بتقديم Ivy-Fake كمعيار متعدد الوسائط، يتضمن أكثر من 106,000 نموذج مدرب بدقة و5,000 مثال تم التحقق منه يدويًا، تم جمعها من نماذج عِدة ونطاقات واقعية لضمان غنى وجودة البيانات.

كما تم تقديم "Ivy-xDetector"، نموذج التعزيز القائم على تحسين السياسات النسبية الجماعية (Group Relative Policy Optimization - GRPO)، والذي بإمكانه إنتاج سلاسل تفسيرية واضحة وتحقيق أداء قوي عبر معايير محتوى الاصطناعية.

تظهر التجارب الواسعة التفوق الملحوظ لمجموعتنا الجديدة، حيث حققت أداءً محسنًا في GenImage من 86.88% إلى 96.32%، متفوقةً بذلك على طرق الكشف السابقة بوضوح. هذه التطورات ثورية في مجال كشف المحتوى الاصطناعي، مما يعكس أهمية البحث المستمر والابتكار في هذا المجال.

ما رأيكم في هذه التطورات المذهلة؟ شاركونا في التعليقات!