في عالم الذكاء الاصطناعي (AI)، لم يعد هناك مجال للشك في تأثير هذه التقنية على حياتنا اليومية. حيث باتت الأنظمة الذكية تلعب دورًا حاسمًا في اتخاذ القرارات المهمة مثل من يحصل على قرض أو من يتم الإشارة إليه كموضع تحقيق جنائي، بل وحتى تحديد وقت فرملة السيارة الذاتية القيادة. في ظل هذه التطورات، استجاب الحكومات بإصدار قوانين مثل قانون الذكاء الاصطناعي الأوروبي (EU AI Act) وإطار إدارة المخاطر من المعهد الوطني للمعايير والتكنولوجيا (NIST Risk Management Framework) والذي يشدد على ضرورة إثبات أن الأنظمة عالية المخاطر تلتزم بمعايير الأمان قبل نشرها.
ومع ذلك، فإن الفجوة المُشيرة في هذه اللوائح تبقى مقلقة، حيث لا يوجد تعريف قاطع لما يُقصد بـ 'المخاطر المقبولة' من الناحية الكمية، ولا توجد طرق تقنية موثوقة للتحقق مما إذا كان النظام المطبق يلبي هذه المعايير. هذا الأمر أصبح حيويًا مع تطبيق قانون الذكاء الاصطناعي الأوروبي، حيث يواجه المطورون الحاجة إلى تقييمات توافقية يمليها القانون بدون منهجيات راسخة لإنتاج أدلة أمان كمية، وتظل الأنظمة الأكثر حاجة للإشراف هي تلك التي تعتمد على استدلالات إحصائية غامضة.
تقدم هذه الورقة حلاً ينقص المشهد الحالي. مستوحاةً من نموذج شهادة الطيران، نقترح إطارًا من مرحلتين يقوم بتحويل تنظيم مخاطر الذكاء الاصطناعي إلى ممارسة هندسية مبنية على أسس واضحة. في المرحلة الأولى، تقوم سلطة مختصة بتحديد بشكل رسمي احتمالية الفشل المقبولة και نطاق مدخلات التشغيل، مما يُنتج آثارًا قانونية مباشرة. وفي المرحلة الثانية، تستخدم أدوات التحقق الإحصائي مثل RoMA وgRoMA لحساب حد أعلى يمكن التحقق منه لمعدل الفشل الحقيقي للنظام، مما يسمح بتحليل النظام دون الحاجة للوصول إلى التفاصيل الداخلية للنموذج، مما يتماشى مع العمارة المتنوعة.
توضح النتائج أن هذه الشهادة لا تحل فقط المشكلة من الناحية التنظيمية، بل تنقل المسؤولية إلى المطورين وتتكامل مع الإطارات القانونية الموجودة اليوم، مما يعد بتحول جذري في كيفية التعامل مع مخاطر الذكاء الاصطناعي.
إطار جديد لتنظيم مخاطر الذكاء الاصطناعي: كيف نواجه غموض النظم المعقدة؟
تقدم هذه الورقة إطارًا مبتكرًا يهدف إلى تنظيم مخاطر الذكاء الاصطناعي من خلال أداة تحقق إحصائية. يتناول الفجوة الحالية في الإجراءات التنظيمية ويسلط الضوء على ضرورة تحديد 'المخاطر المقبولة' بطريقة كمية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
