تتسارع وتيرة اعتماد نماذج اللغات الضخمة (Large Language Models - LLMs) بسرعة، مما يرفع استهلاك الرموز من آثار التفكير الوسيطة، وهذا ما يساهم في زيادة زمن الاستدلال وتكلفة التشغيل. لكن، ماذا لو كان بإمكان هذه النماذج تحقيق تحسينات ملحوظة في الأداء دون الحاجة لتفكير معقد؟

في دراسة حديثة، تم تقديم فكرة "Post-Reasoning"، وهي طريقة بسيطة وفعالة تعزز نماذج قائمة على التعليم من خلال تدريبها على تبرير إجاباتها بعد توليد الرد النهائي. وبذلك، يتمكن النموذج من تقديم الإجابة النهائية بدون أي زيادة في الزمن المستغرق أو تكلفة الرموز، كل ذلك مع تحسن الأداء من خلال إضافة تعليمات بسيطة.

وقد تم تقييم "Post-Reasoning" عبر 117 إعداداً مختلفاً، تشمل 13 نموذجاً مفتوحاً وخصوصياً، و4 عائلات نماذج، و9 معايير متنوعة تتعلق بالتفكير والمعرفة، مثل AMC وHMMT وGSM8K وGPQA وMMLU-Pro وBIG-Bench Hard. وقد أثبتت النتائج أن "Post-Reasoning" تعزز الأداء في أكثر من 88.19% من الإعدادات المُقيمة، مع تحقيق تحسين نسبي متوسط قدره 17.37%.

بالإضافة إلى ذلك، تم اقتراح تحسين ما بعد التفكير الخاضع للرقابة، الذي يعزز الأداء في أكثر من 91.11% من الإعدادات المُقيمة، متجاوزاً خط الأساس المستند إلى التعليمات السابقة بمعدل 8.01%. هذا يوضح أن "Post-Reasoning" يمكن أن يتم استيعابها بشكل فعال من خلال التدريب، مما يضع سقفاً جديداً لأداء الجوانب المتعلقة بالردود المباشرة.

وراء كل هذه الإنجازات، يظهر أن التفكير العميق ليس دائماً مطلوباً، مما يفتح آفاقاً جديدة للابتكارات في الذكاء الاصطناعي. فهل ستكون هذه التقنية النقلة النوعية التي تحتاجها نماذج الذكاء الاصطناعي لتحسين كفاءتها بأقل التكاليف؟

ما رأيكم في هذا التطور؟ شاركونا في التعليقات!