في عالم الذكاء الاصطناعي، تطورت نماذج اللغات الكبيرة (LLMs) بشكل كبير، لكن التحديات المتعلقة بتكاليف التوسيم العالية والاستراتيجيات التقليدية لا تزال تعيق تطورها. لكن الآن، توصل الباحثون إلى نهج جديد يدعى EasyRL، يستلهم من نظرية التعلم الإدراكي لتقديم حل مثير ومبتكر.
تكمن فكرة EasyRL في محاكاة منحنى اكتساب المعرفة البشري، حيث يتم دمج نقل المعرفة القابلة للاعتماد من البيانات الموسومة البسيطة مع استراتيجية تقسيم وتغلب تدريجية تتناول البيانات غير الموسومة الأكثر صعوبة. تبدأ العملية باستخدام نموذج ساخن من خلال التعلم المعزز الخاضع للإشراف (supervised RL) مع عدد قليل من البيانات الموسومة، ثم تتبعه استراتيجية تسمية شبه ذاتية على البيانات غير الموسومة الصعبة.
تشمل هذه الاستراتيجية اختيار الحالات ذات اليقين المنخفض والتسوية في الحالات ذات اليقين المتوسط، مما يعزز قدرة النموذج على الاستدلال. ومن خلال التدريب الذاتي التدريجي مع التقنيات الحديثة، يتمكن EasyRL من تحسين الأداء بكفاءة.
نتائج التجارب على معايير رياضية وعلمية تظهر أن EasyRL، باستخدام 10% فقط من البيانات الموسومة السهلة، يتفوق باستمرار على الأساليب الرائدة الأخرى. هذه الابتكارات ليست فقط مذهلة بل تقدم مسارًا واعدًا لتطبيقات أكثر فاعلية في المستقبل.
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
ثورة جديدة: كيف تصنع LLMs ذاتية التطور بكفاءة من خلال التعلم المعزز
تقدم الأبحاث الجديدة في مجال نماذج اللغات الكبيرة (LLMs) نهجًا مبتكرًا يعمل على تحسين الأداء بتكاليف منخفضة من البيانات. من خلال استراتيجية EasyRL، يمكن لنماذج LLMs التعلم وتحسين نفسها بكفاءة أكبر من خلال استخدام بيانات موسومة بسيطة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
