تتزايد أهمية برامج حوكمة الذكاء الاصطناعي (AI Governance) بشكل ملحوظ، حيث تعتمد على المطالبات بلغة طبيعية (Natural Language Prompts) والتي توجه سلوك وكيل الذكاء الاصطناعي، وتعمل كمعايير تنفيذية تحدد نطاق عمل الوكيل ومعاييره. إلا أنه رغم هذه الأهمية، لم يُوجد حتى الآن إطار منهجي لتقييم ما إذا كانت المطالبات الحوكمية مكتملة هيكليًا.

في هذا السياق، تم تقديم إطار تقييم يتكون من خمسة مبادئ مستند إلى نظرية القابلية للحساب (Computability Theory) ونظرية الإثبات (Proof Theory) وعلم الإحصاء البايزي (Bayesian Epistemology). تم تطبيق هذا الإطار على مجموعة تجريبية مكونة من 34 ملفًا حكوميًا متاحًا للجمهور (AGENTS.md) تم الحصول عليها من منصة GitHub.

أظهرت نتائج التقييم أن 37% من أزواج الملفات والنماذج التي تم تقييمها حصلت على درجات دون المستوى الهيكلي المطلوب، إذ كانت معايير تصنيف البيانات (Data Classification) ومعايير تقييم المعايير (Assessment Rubric Criteria) الأكثر فقدانًا.

تشير هذه النتائج إلى أن المطالبات الحوكمية التي ينشئها الممارسون تحتوي على أنماط هيكلية متسقة يمكن اكتشافها وإصلاحها من خلال التحليل الثابت الآلي.

نتناول في هذا البحث تداعيات ذلك على ممارسات هندسة المتطلبات في سياقات تطوير تعتمد على الذكاء الاصطناعي، ونعرف فجوة تصنيف لم يتم توثيقها مسبقًا في اتفاقية AGENTS.md، ونقترح اتجاهات لدعم أدوات التحليل في هذا المجال.

ما هو رأيكم في ضرورة تحسين حوكمة الذكاء الاصطناعي؟ شاركونا في التعليقات!