تزايدت في الآونة الأخيرة ضرورة وضع معايير واضحة للإبلاغ عن حوادث الذكاء الاصطناعي، وذلك في ظل التوجهات العالمية نحو تنظيم استخدام هذه التقنية. ومع تزايد الاهتمام بهذا المجال، برزت الحاجة لتصميم إطار عمل يحدد متى يجب أن تُصعَد الحوادث من مستوى التعامل الوطني إلى مستوى التنسيق الدولي.

يركز هذا البحث على تطوير إطار تصعيد مُبتكر، يهدف إلى أن يكون نقطة مرجعية مشتركة بين الدول، مما يضمن توافق التصعيد مع منح الجهات المعنية المرونة في كيفية الاستجابة، وفقًا للسياقات القانونية والسياسية الخاصة بكل منها.

تم مراجعة عدة سياسات وتوجيهات، منها قانون الذكاء الاصطناعي في الاتحاد الأوروبي وممارسات الدول السبع الكبرى، لاستنتاج ثمانية معايير أساسية لتقييم ما إذا كانت الحوادث تستدعي التصعيد. ونعرض هذه المعايير في مخطط تدفق تسلسلي يوضح نقاط اتخاذ القرار والتحقق من العتبات.

كما أجرينا اختبارًا لإطار العمل على عشر حالات موثقة من حوادث الذكاء الاصطناعي، لتحديد أين يمكن أن يؤدي التصميم الحالي إلى نقص في الكشف عن الحوادث أو تصنيفها بشكل خاطئ. وقد وجدنا ثلاثة أنماط تصميم قد تؤدي إلى عدم اكتشاف متسق للحوادث، منها:
1. عندما يتطلب التصعيد تأكيد الضرر، مثل حالة تسرب وزن النموذج، قد لا يتم اكتشاف الحوادث إلا بعد حصول ضرر كبير.
2. عندما يتم تقييم الحوادث بشكل فردي، فإن الأضرار النظامية الناتجة قد تُفوت.
3. عندما تتطابق العتبات مع أدوات قانونية بدلاً من مصطلحات قابلة للاختبار كميًا، قد تصبح المعايير غير قابلة للتطبيق تحت الضغط الزمني.

إضافة إلى ذلك، يُظهر البحث أن قواعد التصعيد ليست سوى جزء من إطار عمل أكبر؛ فالتعريفات الأساسية التي يتم تحديد العتبات وفقًا لها، والبيانات المتاحة للشخص المسؤول، تخلق تبعيات تُسهم أيضًا في عدم الكشف عن الحوادث بشكل فعال.