في الآونة الأخيرة، أثبتت نماذج اللغة الكبيرة (Large Language Models) قدرتها الكبيرة على تحقيق أداء متميز في مجموعة متنوعة من المهام، بدءًا من المهام البسيطة إلى الأكثر تعقيدًا. ومع ذلك، فإن التكلفة العالية لاستخدام هذه النماذج تجعل من الصعب تكرار استخدامها في العديد من التطبيقات. في الجهة المقابلة، توفر النماذج الصغيرة (Small Models) فرصة للاستخدام المجاني وسهولة التنفيذ محليًا، ولكن أداؤها في المهام المعقدة يظل محدودًا.

هذه المفارقة الطبيعية تدفعنا للتساؤل: كيف يمكن أن تتعاون النماذج الصغيرة والكبيرة بكفاءة للاستفادة من نقاط قوتها التكميلية؟

لإيجاد حل لهذه المعضلة، اقترح الباحثون إطار عمل جديد يُعرف باسم COPE، والذي يتيح إطارًا للتعاون في وقت الاختبار. يعتمد هذا النظام على نموذج تخطيطي يقوم أولا بإنشاء خطة تخدم كوسيلة وسيطة خفيفة الوزن، ترشد نموذج المنفذ (Executor Model) في المهام التالية. هنا، تتبادل النماذج الكبيرة والصغيرة الأدوار بين التخطيط والتنفيذ، لتعمل بالتناوب في عملية متدرجة لحل المهام بشكل تعاوني.

من خلال التجارب الشاملة على مجموعات البيانات التي تغطي التفكير الرياضي، وتوليد الأكواد، والمهام المفتوحة، ووكالات الذكاء الاصطناعي، أثبت إطار عمل COPE أنه قادر على تحقيق أداء يتنافس مع النماذج الكبيرة الاحتكارية، بينما يعمل على تقليل التكلفة بشكل كبير. هذه النتائج لا تظهر فقط فعالية التخطيط كأداة فعالة لتقليل تكاليف الاستدلال، ولكنها تفتح أفقاً جديدًا في عالم التعاون بين نماذج الذكاء الاصطناعي.

ما رأيكم في هذا التطور المذهل؟ هل تعتقدون أن التعاون بين النماذج الكبيرة والصغيرة سيكون له تأثير كبير على مستقبل الذكاء الاصطناعي؟ شاركونا في التعليقات!