في عالم البرمجة الحديث، تلعب نماذج اللغات الضخمة (LLMs) دورًا محوريًا في تسريع عمليات التطوير. ومع ذلك، قد تكمن المخاطر في تفاصيل صغيرة قد لا ننتبه إليها، مثل الاعتماد على مكتبات برمجية قديمة أو غير آمنة. أظهر بحث جديد تم نشره أن اختيار النسخ في المكتبات البرمجية قد يحمل مخاطر أمنية خطيرة، خاصة عند استخدام كود يولده الذكاء الاصطناعي.

الدراسة استهدفت قياس المخاطر على مستوى النسخة في الكود الناتج عن 10 نماذج لغوية مختلفة باستخدام مجموعة بيانات تضم 1,000 مهمة برمجية من Stack Overflow. وجدت أن نماذج اللغات تميل إلى تحديد النسخ بدقة تتراوح بين 26.83% إلى 95.18% عند التنبيه على ذلك، لكنها تتدنى إلى نسبة تتراوح بين 6.45% إلى 59.19% عند إنشاء ملف التجميع مباشرة.

من بين النسخ المعلنة، تبين أن 36.70% إلى 55.70% من المهام تحتوي على ثغرات معروفة (CVE)، وأن 62.75% إلى 74.51% منها تحمل تصنيفات شدة عالية أو حرجة. الغريب أن معظم الثغرات المرتبطة تم الكشف عنها قبل فترة معرفة النماذج، مما يجعل من الضروري إعادة النظر في طرق اختيار النسخ.

كما كشفت التجارب أن فشل التثبيت كان السبب الرئيسي لعدم التوافق، لتتراوح معدلات التوافق الثابتة بين 19.70% و63.20%. يُظهر هذا البحث أهمية التعامل مع مخاطر اختيار النسخ بشكل جاد، حيث لم يعد كافيًا التركيز على جودة الكود فقط.

تشير النتائج إلى أن هناك تحيزًا نظاميًا بين النماذج تجاه مجموعة صغيرة من النسخ ذات المخاطر العالية. فيما أكد مطورون من المجتمع وجود هذه المشكلة بعد إبلاغهم بالنتائج.

لمن يرغب في استكشاف تفاصيل هذه الدراسة، يمكن الوصول إلى الكود والبيانات المستخدمة في البحث عبر الرابط [https://github.com/dw763j/PinTrace].