في عالم تأمين البيانات السيبرانية، يكمن التحدي في تصعيد الامتياز على أنظمة التشغيل مثل لينكس (Linux). أظهرت الأبحاث الحديثة قدرة نماذج اللغات الضخمة (Large Language Models) على إجراء اختبارات اختراق ذاتية، ولكن اعتمادها على نماذج محسوبة سحابياً قد يثير مخاوف تتعلق بالأمان والخصوصية. لذا، ظهرت الحاجة إلى نماذج مفتوحة الوزن مستضافة محلياً.

على الرغم من ذلك، وجدت دراسات سابقة أن هذه النماذج الصغيرة تعاني في أداء مهمتها في تصعيد الامتياز على لينكس، مما يحد من تطبيقاتها العملية.

في ورقتنا البحثية الجديدة، قمنا بدراسة تجريبية منهجية لسد الفجوة في الأداء، من خلال إدخال تدخلات مستهدفة على مستوى النظام وطرق تحفيزية مختلفة. تم تحليل أنماط الفشل للنماذج المفتوحة الوزن في تصعيد الامتياز الذاتي وربطها بتقنيات تعزيز معروفة.

قمنا بتقييم خمس تدخلات رئيسية من خلال تنفيذها كإضافات لنموذج hackingBuddyGPT، شملت حوافز مرتبطة بالتفكير، وتوليد معزز بالاسترجاع، وتوجيهات منظمة، وضغط التاريخ، وتحليل تفكيري.

أظهرت النتائج أن النماذج المفتوحة الوزن يمكنها مجاراة وحتى تجاوز المقاييس المستندة إلى السحاب مثل GPT-4o. فقد استطاع نموذج Llama3.1 70B استغلال 83% من الثغرات المختبرة، بينما حققت النماذج الأصغر مثل Llama3.1 8B و Qwen2.5 7B 67% عند استخدام التوجيه.

علاوة على ذلك، استعراض شامل لمجموعات العلاج أظهر أن العلاجات القائمة على التفكير كانت الأكثر فعالية، بينما أظهر التحليل أن اكتشاف الثغرات لا يزال يشكل عائقًا أمام النماذج المحلية.

باختصار، التقدم في تقنيات تعزيز النماذج المحلية يعد خطوة هامة نحو تحسين فعالية الدفاعات السيبرانية.

ما رأيكم في إمكانية استخدام هذه النماذج لتحسين أمان الأنظمة؟ شاركونا في التعليقات.