في عالم البرمجة الحديثة، أصبح الاعتماد على نماذج اللغات الضخمة (Large Language Models) محط تركيز أساسي. ومع ذلك، يمثل استخدام مجموعات بيانات غير مُنقاة لتدريب هذه النماذج تهديدًا أمنيًا جسيمًا، حيث يمكن أن تمتص هذه النماذج محتوى ضار وتعيد إنتاجه. وقد تجلّى هذا الخطر بشكل واضح في نوفمبر 2024، عندما تعرض أحد المستخدمين لخسارة مالية بلغت 2500 دولار، وذلك بعد تشغيل كود تم إنشاؤه بواسطة ChatGPT يحتوي على رابط تصيد احتيالي نشط.

للتصدي لهذه المشكلة، تم تقديم Scam2Prompt، وهو إطار عمل آلي قابل للتطوير لرصد وتحليل المواقع الاحتيالية. يعمل هذا الإطار على تحليل النية الكامنة وراء المواقع الاحتيالية، ثم يقوم بإنشاء مطالبات تحاكي أسلوب المطورين لاختبار ما إذا كانت نماذج اللغات الضخمة ستنتج أكواد ضارة استجابةً لهذه المطالبات.

في دراسة شاملة على أربعة نماذج لغوية إنتاجية (GPT-4o، GPT-4o-mini، Llama-4-Scout، وDeepSeek-V3)، تبين أن المطالبات التي أنتجها Scam2Prompt أدت إلى توليد روابط ضارة في 4.24% من الحالات. ولتقييم مدى خطورة هذا التهديد، تم بناء Innoc2Scam-bench، وهو معيار يتضمن 1377 مطالبة أثبتت فعاليتها في إثارة الأكواد الضارة عبر جميع النماذج الأولية الأربعة.

عند تطبيق هذا الإطار على سبعة نماذج لغوية إنتاجية أُطلقت في 2025، لوحظ أن الثغرات لا تزال موجودة وبشدة، حيث تراوحت معدلات توليد الأكواد الضارة بين 12.9% و47.3%. علاوة على ذلك، يُظهر البحث أن التدابير الوقائية الحالية مثل الأجهزة الأمنية المتقدمة أو الوكلاء المعتمدين على استرجاع المعلومات لم تكن كافية لمنع هذا السلوك.

إن استمرار هذه المخاطر الأمنية يثير تساؤلات حول كيفية الاعتماد على نماذج الذكاء الاصطناعي في تطوير البرمجيات، ويُلقي بظلال من الشك على أمان هذه التقنيات.

ما رأيكم في هذا التطور؟ شاركونا في التعليقات.