في ظل التطورات السريعة التي يشهدها قطاع الذكاء الاصطناعي (AI)، أصبح من الضروري أن نتناول مسألة سيادة القرار في الاستخدامات العسكرية. حيث أظهرت الأحداث الأخيرة أن استخدام نماذج الذكاء الاصطناعي التي تُديرها شركات خاصة يمكن أن يؤثر بشكل كبير على أداء العمليات العسكرية. هذا ما تطرقت إليه ورقة بحثية جديدة تناقش الإطار المعماري المناسب لحماية سيادة القرار.

تُعرف السيادة في هذا السياق بقدرة الدولة على التحكم في سياسات اتخاذ القرار والتعامل مع الأنظمة المستخدمة، حتى إذا كانت هذه الأنظمة مصدرها شركات تجارية. على سبيل المثال، النزاع الذي حدث في عام 2026 بين شركة Anthropic ووزارة الدفاع الأمريكية يُظهر كيف يمكن لمزودي التقنية أن يؤثروا على حدود العمليات العسكرية.

تقدم الورقة نموذجاً متميزاً يدعى "Paradigm Energetic"، الذي يضمن بقاء نماذج الموردين كعناصر قابلة للاستبدال، بينما تُبقى الوظائف الأساسية مثل توجيه البيانات وتقييد العمليات والرقابة في يد الدولة. يعد هذا النموذج خطوة استراتيجية نحو تقليل الاعتماد على مزودي النماذج الخاصة دون الحاجة للكشف عن تفاصيل التنفيذ الخاصة بهم.

من خلال هذا الإطار، يأمل الباحثون في تعزيز الأمان والشفافية في اتخاذ القرارات العسكرية، مما يحافظ على سيادة الدول في عالم يتزايد فيه الاعتماد على تقنيات الذكاء الاصطناعي. فكيف ترى مستقبل استخدام الذكاء الاصطناعي في المجالات العسكرية؟ شاركونا آراءكم.