في عصر يتسم بتقدم التكنولوجيا، يُمكن القول إن الذكاء الاصطناعي (Artificial Intelligence) يغير ملامح المجتمع بشكل جذري، بدءًا من إنشاء مقاطع الفيديو وصولًا إلى التشخيص الطبي، مرورًا بتطبيقات البرمجة والمركبات الذاتية القيادة. ومع ذلك، يعاني الباحثون، وصنّاع السياسات، والشركات التكنولوجية من غياب مصطلحات موحدة لمناقشة المخاطر المتعلقة بالذكاء الاصطناعي.

عند تناول مفهوم "الخصوصية"، سنجد أن إطار عمل معين يستخدم هذا المصطلح للإشارة إلى قدرة النموذج على تسريب بيانات تدريب حساسة، بينما تفسير آخر يعني حرية الأفراد من مراقبة الحكومة. من جهة أخرى، أدخل الباحثون مجموعة من المصطلحات مثل "قانون جودهارت" (Goodhart's Law) و"ألعاب المواصفات" (Specification Gaming) و"اختراق المكافآت" (Reward Hacking) و"تحسين الميزات" (Mesa-optimization) لوصف نفس الظواهر التي تحدث عندما تسعى أنظمة الذكاء الاصطناعي لتحقيق أهداف مقيسة بدلاً من الأهداف المقصودة.

هذا التنوع في المصطلحات يسبب بعض التعقيدات؛ فمقارنة النتائج بين الدراسات تتطلب خرائط بين الأطر المختلفة، بينما تتطلب تغطية شاملة للمخاطر استشارة تصنيفات متعددة تستخدم مبادئ تنظيمية مختلفة.

للتعامل مع هذا التحدي، أعدّت ورقة بحثية شاملة تضم كتالوجًا لمخاطر الذكاء الاصطناعي. حيث تم تحليل كل إطار عمل رئيسي تم نشره في هذا المجال، والذي بلغ عددها 74 إطار عمل يحتوي على 1,725 خطر متميز، وتم تنظيمها في نظام موحد. تكشف نظم التصنيف لدينا عن أنماط مهمة: على عكس الافتراضات الشائعة، فإن القرارات البشرية تسبب ما يقرب من 38% من المخاطر المتعلقة بالذكاء الاصطناعي، بينما تمثل الأنظمة نفسها 42%.

يوفر هذا العمل أدوات عملية لأي شخص يعمل على سلامة الذكاء الاصطناعي، من المطورين الذين يقومون بتقييم المخاطر إلى صانعي السياسات الذين يكتبون اللوائح إلى المدققين الذين يقيمون أنظمة الذكاء الاصطناعي. من خلال تأسيس نقطة مرجعية مشتركة، يساهم هذا الكتالوج في بناء نهج أكثر تنسيقًا وشمولية لإدارة مخاطر الذكاء الاصطناعي بينما ندرك فوائدها.