في عالم الذكاء الاصطناعي، تتزايد التحديات أمام نماذج اللغات الضخمة (LLMs)، خاصة عندما يتعلق الأمر باستخدام الأدوات. فمع أن هذه النماذج تعتمد على المعرفة المعلماتية (parametric knowledge)، إلا أن التنفيذ الفعال يتطلب تحقيق توازن دقيق بين عمق التفكير الصحيح (appropriate reasoning depth) والشرعية الهيكلية الصارمة (strict structural validity).

لكي نواجه هذا التحدي، تم تقديم إطار عمل CAST، الذي يعتمد على منظور يعتمد الحالات (case-based perspective)، حيث يتم اعتبار المسارات السابقة من التنفيذ بمثابة حالات منظمة. بدلاً من إعادة استخدام المخرجات النموذجية بشكل مباشر، يستخرج CAST إشارات مستمدة من الحالات للتعرف على ملفات تعريف التعقيد (complexity profiles) لتقدير استراتيجيات التفكير المثلى، إلى جانب ملفات تعريف الفشل (failure profiles) لرسم الخرائط لانهيارات هيكلية محتملة.

هذا الإطار لا يترجم فقط المعرفة السابقة إلى تصميم مكافآت دقيقة (fine-grained reward design) والتفكير التكيفي (adaptive reasoning)، بل يمكّن النموذج من استيعاب استراتيجيات تعتمد على الحالات بشكل تلقائي خلال التعلم التعزيزي (reinforcement learning).

أظهرت التجارب على BFCLv2 وToolBench أن استخدام CAST يحسن من دقة التنفيذ وفقًا للهيكل (schema-faithful execution) ونجاح استخدام الأدوات على مستوى المهام، بينما يقلل من التفكير غير الضروري. حقق هذا الأسلوب ارتفاعًا يصل إلى 5.85 نقاط مئوية في دقة التنفيذ العامة، كما خفض متوسط طول التفكير بنسبة 26%، مما يسهم بشكل كبير في تقليل الأخطاء الهيكلية ذات الأثر العالي.

في النهاية، يُظهر هذا المشروع كيف يمكن أن توفر تجارب التنفيذ التاريخية معرفة قابلة لإعادة الاستخدام لتكييف استخدام الأدوات بشكل دقيق، مما يعزز فعالية نماذج اللغات الضخمة في المستقبل.