تسارعت وتيرة استخدام نماذج اللغة الكبيرة (Large Language Models) في دعم عمليات الشبكات (NetOps) والذكاء الاصطناعي لتشغيل تكنولوجيا المعلومات (AIOps)، لتصبح أداة فعالة في تحقيق تحليل الحوادث، والتحقيق في جذور المشاكل، وتوليف التكوين، وكذلك تنفيذ بعض إصلاحات النظام بشكل محدود. يعكس هذا التحول الكبير طريقة إدارة المهام بشكل جذري، حيث تُحسن العمليات المعتمدة على الوكلاء (Agent-Based Operations) من سير العمل بدءًا من جمع الأدلة إلى اتخاذ الإجراءات اللازمة مع الالتزام بالسياسات والتصاريح المحددة، مما يجعلها أكثر أمانًا وفعالية.

يعتبر ذلك ضروريًا، حيث يمكن أن تؤثر القرارات التشغيلية على النظام بشكل فوري. يتضمن البحث تنظيم الأدبيات ذات الصلة حول هرمية الاستقلالية (Hierarchy of Autonomy) ونطاق الأدوات (Tool Scope) وآثار الأدلة (Evidence Traces) وعقود الضمان (Assurance Contracts). هذه العقود تحدد ما يمكن لوكيل معين ملاحظته، اقتراحه، وتنفيذه، بالإضافة إلى الشروط التي يجب أن تُنفذ لضمان سلامة أي إجراء.

تظهر أنماط ثابتة عبر الأعمال المتعلقة بتوصيات استعلامات البيانات، والتشخيص، وتحليل أسباب الجذور، وتخطيط التغييرات، وإصلاح النظام محدود الوظائف. ومن الجدير بالذكر أن الاعتمادية التشغيلية لا تأتي بشكل رئيسي من النموذج نفسه، بل تعتمد على الآليات المحيطة به. يتطلب تقييم نماذج NetOps وAIOps تركيزًا أكبر على سير العمل، بما في ذلك جودة السلاسل، والاستخدام المحدود للأدوات، وتوليد الاقتراحات بشكل آمن، وإعادة التشغيل في بيئات تجريبية آمنة، بالإضافة إلى تجارب الكاني (Canary Trials) مع تسجيل النقاط الواعية بالتراجع.

تتزايد المخاطر المتعلقة بالأمان والخصوصية والحوكمة عندما تتواجد الوكلاء بالقرب من سطح التحكم التشغيلي. في نهاية المطاف، يكون التقدم في ذكاء عمليات الشبكات والذكاء الاصطناعي في التشغيل متوقفاً على معالجة الاستقلالية كمشكلة تحكم تشغيلية مقيدة، حيث يجب أن تكون المخرجات موثوقة وقابلة للتدقيق، وقابلة للنشر بشكل آمن.