في عالم الذكاء الاصطناعي (AI)، تعمل الأنظمة على تنفيذ تأثيرات مختلفة، لكن هل تساءلت يومًا عن الحدود التي تحدد ما يمكنها فعله؟ هناك حدودان رئيسيان: حدود التعبير (expressiveness) وحدود الحوكمة (governance). للأسف، يتم تعريف هذين الحدين بشكل مستقل في معظم أنظمة الذكاء الاصطناعي المنشورة، مما ينتج عنه ثلاث مناطق رئيسية: القدرات الخاضعة للحوكمة، القدرات غير الخاضعة للحوكمة التي تمثل مخاطر، والسياسات الحوكمة التي تعالج قدرات غير موجودة فعليًا، مما يجعلها تبدو وكأنها مجرّد عرض مسرحي.

خلال هذا المقال، نركز على حوكمة التأثيرات، وهي الأفعال التي تقوم بها أنظمة الذكاء الاصطناعي في العالم، مثل استدعاءات واجهة البرمجة (API calls) وتحديثات قواعد البيانات. ولكن، يجب التمييز بين حوكمة المخرجات (outputs) والتي تتعلق بجودة المحتوى والتحيز والعدالة.

ما يعنينا هو الفجوة الهيكلية بين هذين النوعين من الحوكمة وكيف يمكن تحليلها. وفقًا لمبدأ رايس (Rice's theorem) الذي تم وضعه في عام 1953، فإن الفجوة هي مشكلة غير قابلة للحل في الحالة العامة لأي هيكل معالج ذي تيرينغ (Turing-complete architecture) يحاول الحوكمة سلوكيًا. فيما لا يمكن للبرامج تحديد خصائص دلالية غير تافهة، بما في ذلك التحقق من مطابقة تأثيرات البرنامج مع السياسات الحوكمة.

نطرح مفهوم الحوكمة المتزامنة (coterminous governance): وهي خاصية نظام حيث تساوي حدود التعبير حدود الحوكمة. تتطلب الحوكمة المتزامنة قرارًا معماريًا يؤكد على فصل الحساب عن التأثير، بدلاً من إضافة طبقة حوكمة بعد وقوع الحدث. مما يعني أن عمليات التحقق من الحوكمة ستصبح جزءًا من خط تنفيذ البرنامج، وليس نظامًا ثانويًا يعمل بجانبه.

نقترح أن تكون الحوكمة المتزامنة معيارًا قابلاً للاختبار لأي نظام حوكمة ذكاء اصطناعي: إما أن تكون الحدودان متطابقتين بشكل مثبت، أو فإن المخاطر والعروض المسرحية تصبح حتمية هيكليًا.

ختامًا، بما أن الحوكمة الفعالة تعتبر حجر الزاوية في أي نظام ذكاء صنعي موثوق، يجب أن نتساءل: ما مدى استعداد أنظمتنا لمواجهة هذه التحديات الهيكلية؟ راقبوا التطورات في هذا المجال وشاركونا آراءكم.