في عالم الذكاء الاصطناعي المتقدم، تتزايد أهمية نماذج اللغات الضخمة (Large Language Models) في التفاعل مع الأنظمة الخارجية من خلال برتوكولات استدعاء الأدوات مثل برتوكول سياق النموذج (Model Context Protocol - MCP). ومع استخدام هذه الوكالات، تواجه تحديات كبيرة تتمثل في الحاجة إلى معالجة كل استدعاء أداة خلال كل جلسة، مما يتطلب استهلاك عدد هائل من الرموز (tokens) بناءً على عدد الإجراءات المنفذة، حتى في حال تم حل المهمة سابقًا.

لذا، قدم الباحثون محرك سير العمل الخاص ببرتوكول النماذج (MCP Workflow Engine) كطبقة تنسيق مبتكرة تفصل بين القرارات (الذكاء) والتنفيذ (التنفيذ الفعلي). في هذه المعمارية الجديدة، يقوم الوكيل بمعالجة المعلومات مرة واحدة فقط لإنتاج مخطط سير العمل القابل للتطبيق، وهو عبارة عن وثيقة JSON تحدد تسلسلًا موجهًا لاستدعاء أدوات MCP مع قوالب معلمة، وحلقات، وفروع متوازية، وأنابيب بيانات.

بعد ذلك، يتم تفعيل العمليات التنفيذية من خلال استدعاء أداة واحدة فقط (run_workflow)، مما يستهلك عدد رموز يعادل استدعاء واحد بغض النظر عن تعقيد المخطط. كما أُعيد صياغة نمط معمارية الوسيط لمساعد برتوكول النماذج (MCP Mediator architectural pattern)، وهو بمثابة خادم MCP يعمل في الوقت نفسه كعميل لخوادم MCP السفلية.

تم تطبيق هذا النظام باستخدام TypeScript ضد مجموعة أدوات MCP. ما هو أكثر من ذلك، تم تقييم المحرك في مهمة مزامنة قاعدة بيانات Kubernetes على نطاق الإنتاج، تتضمن 67 خطوة منظمة عبر خادمين MCP و38 مساحة اسم و13 نقطة عمل و22 نوع مختلف من الموارد.

نتيجة لهذه الابتكارات، تحقق المحرك تقليلًا في تكلفة الرموز المنفذة بنسبة تتجاوز 99%، وأكمل رسم التخطيط الكامل للعناقيد - الذي يتضمن أكثر من 1200 عقدة و2800 علاقة عبر 20 نوع علاقة - في أقل من 45 ثانية. كما يحقق تنفيذًا محددًا وقابلًا للتكرار دون الحاجة لتدخل الوكيل أثناء التنفيذ.

إن هذا الابتكار يمهد الطريق لتطورات مثيرة في عالم الذكاء الاصطناعي، وقد يفتح أفقًا واسعًا من الفرص في مجالات متعددة. هل أنتم متحمسون لرؤية كيف ستؤثر هذه الابتكارات على العالم من حولنا؟ شاركونا آراءكم.