تسارع الزخم في دمج الذكاء الاصطناعي (AI) في مجالات الأمن السيبراني (Cybersecurity) بشكل غير مسبوق، مما يغير موازين القوى بين المهاجمين والمدافعين حول عالم الإنترنت. ومن الواضح أن الوصول غير المتكافئ إلى أدوات الدفاع المتقدمة المدعومة بالذكاء الاصطناعي يمكن أن يعيق قدرة المدافعين، خصوصًا أولئك الذين يفتقرون إلى الموارد، على اتخاذ تدابير فعالة للحماية. هذا ما أكده بحث حديث استخدم نموذجًا نظريًا قائمًا على نظرية الألعاب (Game Theory) لدراسة آثار هذا الاختلاف.

في البداية، أظهرت الدراسة أن التكلفة العالية للدفاعات القوية تدفع أفراد المجتمع إلى اعتماد سلوكيات دفاعية ضعيفة ومنخفضة التكلفة، مما يؤدي إلى تطبيع الهجمات وتعرض الأنظمة لمزيد من الثغرات الأمنية مع مرور الوقت. لمواجهة هذا التحدي، اقترح الباحثون تقديم خيارات متباينة للمدافعين، تتيح لهم الاختيار بين حماية ذات قدرات منخفضة وعالية، اعتمادًا على مواردهم المتاحة.

لكن دور الالتزام كان محور البحث، حيث تبين أن مجموعة صغيرة من المدافعين الذين يلتزمون دائمًا بتبني أساليب الدفاع القوية يمكنهم التأثير في الآخرين عبر التعلم الاجتماعي. ورغم أن الالتزام يعزز من انتشار الدفاعات القوية، إلا أنه وحده لا يكفي لتحقيق نتائج آمنة بسبب التكلفة العالية. كانت الفكرة الإبداعية هنا هي إدخال دعم مستهدف للقضاء على عيوب التكلفة التي تواجه المدافعين الملتزمين.

أظهرت التحليلات أن الدعم المالي يعزز بشكل كبير من تبني الدفاعات القوية، مما يساهم في تقليل الهجمات الناجحة وتحسين المرونة العامة للأنظمة. وتؤكد المحاكاة عبر مجموعة واسعة من المعايير أن هذا الدعم يتفوق باستمرار على الالتزام وحده. كما أظهرت دراسة الرفاهية الاجتماعية تحسين نتائج المدافعين مع الحفاظ على مكاسب المهاجمين في مستويات منخفضة.

تشير النتائج إلى أن الدعم المستهدف للمدافعين الرئيسيين يمكن أن يكون وسيلة فعالة لتعزيز الأمن السيبراني في البيئات المدفوعة بالذكاء الاصطناعي، مما يفتح جسرًا نظريًا بين سياسة الأمن السيبراني، وحوكمة الذكاء الاصطناعي، والتخصيص الاستراتيجي لقدرات الدفاع الذكية.