مع تنامي قدرة نظم الذكاء الاصطناعي (AI)، يصبح من الضروري تقييم استراتيجيات السلامة ليس فقط بناءً على مدى قدرتها على تقليل المخاطر الحاضرة، بل أيضاً على إمكانية استمرار هذه السلامة عند توقف السيطرة الخارجية عن توجيه سلوك النظام بشكل موثوق. تستعرض هذه الورقة البحثية استخدام نظرية السيطرة (Control Theory) لتوضيح، على مستوى هيكلي، ما إذا كانت الاستراتيجيات المفروضة externally لإدامة السلامة يمكن أن تنجح، وفي حال عدم نجاحها، ما يجب أن يتوافر في أي استراتيجية بديلة لتكون قابلة للتطبيق.

تستند الدراسة إلى نتيجتين رئيسيتين: الأولى، أنه بمجموعة شروط واضحة، تثبت عدم إمكانية استمرار السلامة تحت السيطرة الخارجية؛ أي أنه عندما تتجاوز آثار النظام ما يمكن أن تحكمه السيطرة الخارجية، فلا يمكن لأي استراتيجية تعتمد جزئياً على هذه السيطرة ضمان سلامة نظم الذكاء الاصطناعي. الفشل هنا هيكلي وليس مرتبطاً باستراتيجية معينة.

النقطة الثانية تشير إلى ضرورة وجود استراتيجيات آفلة تُمكّن استدامة السلامة. إذا تبقى على الأقل استراتيجية واحدة من بين تلك الاستراتيجيات، فإنه يتوجب أن تكون جميع هذه الاستراتيجيات ذاتية (Intrinsic). كما تحدد أربع متطلبات هيكلية لازمة لتحقيق الفاعلية: يجب ألا تعتمد السلامة على استمرار السيطرة الخارجية، وأن يكون الهدف النهائي للنظام متوافقاً مع السلامة عند تشكيله لأول مرة، وأن يظل هذا الهدف مستقراً خلال التعديل الذاتي، وأخيرًا يحتاج السلامة للوجود مع زيادة القدرات.

رغم أن الورقة لا تقترح استراتيجية كاملة لضمان سلامة الذكاء الاصطناعي، إلا أنها تقدم هيكلًا رسميًا لمخاوف شائعة حول حدود السيطرة الخارجية، من خلال استنتاج نتائج شرطية صريحة تحدد أي استراتيجيات للسلامة يمكن استبعادها وما يجب أن تتضمنه الاستراتيجيات المتبقية.