في عالم الذكاء الاصطناعي، تتزايد أهمية استخدام نماذج لغوية ضخمة (Large Language Models) لتحسين طريقة بناء النماذج. ولكن، غالبًا ما تواجه هذه النماذج صعوبة في اختيار استراتيجيات النمذجة الفعالة، مما يؤدي إلى استنتاجات غير صحيحة وسلوكيات غير فعّالة من المحللين. هنا يأتي دور SAGE، الإطار الثوري الذي يغير قواعد اللعبة.

تقوم SAGE بتوضيح استراتيجية النمذجة في كل من بناء البيانات وما بعد التدريب. هدفها هو بناء مجموعة بيانات متعدّدة الاستراتيجيات مع التحقق من صحتها من قِبل المحللين، فضلًا عن تدريب نموذج جديد باستخدام Fine-Tuning مع إشراف، يليه نظام GRPO المحتسب باستخدام مكافأة مركبة تتعلق بمدى التوافق مع المعايير، والصلاحية، وكفاءة الحل.

تظهر نتائج SAGE من خلال ثمانية معايير متنوعة تشمل بيئات اصطناعية وحقيقية تحسنًا بنسبة لا تصدق في معدل النجاح من 72.7% إلى 80.3% مقارنةً بأقوى النماذج مفتوحة المصدر.

علاوة على ذلك، مع توليد متعدد للنماذج، استطاعت SAGE اكتشاف صيغ صحيحة متميزة أكثر، مما ساهم في زيادة تنوع الأجزاء بنسبة تتراوح بين 19% و29% عند 16 نموذج ناجح.

وعلى نطاق أوسع، تُنتج SAGE أنظمة قيود أكثر إحكامًا، مع عدد قيود أقل بنسبة 14.2% مقارنة بالنموذج الأساسي، مما يتوافق مع النمذجة التي تتسم بالكفاءة.

تؤكد النتائج أن جعل استراتيجيات النمذجة واضحة يسهم في تحسين نمذجة التحسين الآلي، مما يعد خطوة كبيرة نحو الوصول إلى أفق جديد من الكفاءة في الذكاء الاصطناعي. إذا كنت مهتمًا بالتفاصيل التقنية، يمكنك الاطلاع على الكود المتاح على [GitHub](https://github.com/rachhhhing/SAGE).

ما رأيكم في هذه التطورات المثيرة في عالم الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات!