في وقتنا الحالي، يشهد عالم الذكاء الاصطناعي تحولًا مثيرًا، حيث تتولى الوكالات الذكية أدوارًا متزايدة الأهمية ضمن عمليات التكامل المستمر (Continuous Integration) والنشر المستمر (Continuous Deployment) والمعروفة اختصارًا بـ CI/CD. لكن ما الذي يعنيه أن تكون هذه العمليات 'وكيلة'؟ هذا هو السؤال الذي يواجهه الباحثون اليوم، حيث تفتقر المجتمعات الأكاديمية إلى مفردات مشتركة لوصف طبيعة هذه الاستقلالية الجديدة وما يتطلبه قرار تفويض السلطة.

تتناول ورقة بحثية جديدة تحديًا محوريًا: ليس تحسين أداء المهام هو ما يكتسب الأهمية، بل تصميم آليات نقل السلطة من العمليات التي تسيطر عليها البشر إلى الأنظمة الوكيلة ضمن قيود معينة وآليات للرجوع. لنلقِ نظرة على هذا المفهوم، والذي نقوم بتفصيله من خلال التفريق بين سلطة البيانات (data-plane authority) التي تشمل التدخلات الموضعية مثل توليد التصحيحات وإعادة اختبارات، وسلطة التحكم (control-plane authority) التي تتعلق بتعديل إعدادات خطوط الأنابيب، سياسات النشر، وأبواب الموافقة.

بالاستناد إلى نماذج بحثية ومنصات صناعية، يتضح أن الأنظمة الحالية تعمل بشكل رئيسي ضمن نطاق سلطة البيانات، حيث يتم تحقيق السلامة من خلال بنية حوكمة محيطة بدلاً من ضمانات رئيسية من الوكالات ذاتها. وقد تم التعرف على ثلاثة أنماط متكررة في هذه السياقات: الاستقلالية المقيدة كتصميم سائد، الحوكمة الخارجية كآلية السلامة الأساسية، والفجوة المتزايدة بين الزخم في النشر وطرق التقييم.

نقترح أجندة بحثية يتمحور فيها تحديد آليات السلامة في سلطة التحكم كأهم التحديات المفتوحة، يليها formalization لحدود الاستقلالية، أطر التقييم، وتنسيق العمل بين الإنسان والوكيل. هل أنتم مستعدون لاستكشاف هذه الديناميكيات وتفاعلها مع مستقبل التطور التكنولوجي؟ شاركونا آرائكم في التعليقات.