في عالم يتزايد فيه الاعتماد على الذكاء الاصطناعي، برز استخدام نماذج اللغة الكبيرة (Large Language Models) في تطبيقات الأمن السيبراني، مثل اكتشاف الثغرات. ومع ذلك، كان التركيز في الأبحاث السابقة على نمذجة التهديدات يعتمد بشكل أساسي على نماذج عامة تحت ظروف إدخال محدودة. لذا، تأتي دراستنا لتوسيع مجال نمذجة التهديد الهيكلية عبر تقييم منهجي لنماذج لغوية متوائمة من أحجام مختلفة مقارنةً بنظيراتها العامة.

تستخدم الدراسة كلاً من نماذج اللغة الكبيرة (LLMs) ونماذج اللغة الصغيرة (Small Language Models) التي تم تعديلها لمجال الاتصالات والأمن السيبراني. اعتمدنا في نمذجة التهديد الهيكلية على نهج STRIDE الشهير، وكانت منطقة التطبيق هي أمان 5G.

قدمنا تقييمًا شاملًا باستخدام 52 تكوينًا مختلفًا (على 8 نماذج لغوية مختلفة) لتحليل تأثير 1) التكيف الميداني، 2) حجم النموذج، 3) استراتيجيات فك الترميز (الاختيار الجشع مقابل العينة العشوائية)، و4) تقنيات الإدخال على تصنيف التهديد في STRIDE.

أظهرت نتائجنا أن النماذج المتوائمة لم تحقق أداءً متفوقًا على نظيراتها العامة بشكل ثابت، كما أن استراتيجيات فك الترميز أثرت بشكل كبير على سلوك النموذج وصحة المخرجات. على الرغم من أن النماذج الأكبر عادةً ما تحقق أداءً أعلى، فإن هذه الزيادات ليست دائمًا مضمونة ولا كافية للنمذجة الموثوقة للتهديدات.

تسلط هذه النتائج الضوء على قيود أساسية في النماذج اللغوية الحالية لمهام نمذجة التهديد الهيكلية، وتوصي بأن التحسينات تتطلب أكثر من مجرد بيانات تدريب إضافية أو زيادة في حجم النموذج، مما يدفع نحو الحاجة إلى تضمين مزيد من التفكير المحدد للمهام والجذور القوية في مفاهيم الأمان. نقدم أيضًا رؤى حول المخرجات غير الصحيحة التي تم مواجهتها ونقترح استراتيجيات إدخال مخصصة لنمذجة التهديد وفقًا لنهج STRIDE.