تعتبر أنظمة الذكاء الاصطناعي جزءًا لا يتجزأ من تطوير المدن الذكية، لكن مع تزايد استخدامها في البنية التحتية الحيوية، تبرز تساؤلات مهمة حول المساءلة. فمع تطبيق قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، يصبح من الضروري التطرق إلى الفجوات التشريعية التي تواجه المواطنين عند محاسبة هذه الأنظمة.

عند حدوث تداخل في وظائف أنظمة مثل إشارات المرور أو إدارة الطاقة، يجد السكان أنفسهم أمام جملة من التحديات؛ إذ لا يوجد طرف واحد يمكنهم محاسبته، ويواجهون صعوبات في الحصول على تفسيرات قانونية. تشير الدراسات إلى أن المادة 86 من هذا القانون تستثني أنظمة الذكاء الاصطناعي ذات الأهمية الأمنية من حقوق التفسير المفروضة في المادة 27 المتعلقة بتقييم تأثير الحقوق الأساسية.

بينما تظل المسؤوليات المفروضة على مقدمي ومشغلي هذه الأنظمة قائمة، هناك حاجة ملحة لتحديد مسارات قانونية تعوض الفجوات الحالية. اقترح الباحثون نموذج "AgentGov-SC" الذي يتكون من ثلاث طبقات: الوكيل (Agent)، التنسيق (Orchestration)، والمدينة (City). يحتوي هذا النموذج على 25 إجراءً للحوكمة مع إمكانية التتبع الثنائي إلى قانون الذكاء الاصطناعي الأوروبي، والمعايير الدولية الأخرى.

علاوة على ذلك، تمثل خمسة قواعد لحل النزاعات ونموذج تفعيل مدروس زيادة مطلوبة في فعالية التنفيذ. من خلال تحليل سيناريوهات متعددة، يظهر البحث كيف يمكن أن يؤثر امتلاك بنية حوكمة قوية على تحسين سمعة الأجهزة الذكية التي تفاعل ضمن أطر المدن الذكية.

إن البحث يستعرض بوضوح الفجوات التنظيمية التي تتداخل مع نظم الذكاء الاصطناعي في سياقات متنوعة، مما يجعل من الضروري التأكيد على أهمية تطوير إطار حوكمة مستدام لهذه الأنظمة.