في عالم الذكاء الاصطناعي، لا تتوقف الابتكارات عند حد معين، فقد أظهر الباحثون في الجامعة تطورًا كبيرًا من خلال تقديم MTG-Causal-RL، معيار جديد لتعزيز التعلم السببي (Causal Reinforcement Learning) مصمم خصيصًا للألعاب الورقية المعقدة مثل لعبة Magic: The Gathering.
تجمع MTG-Causal-RL بين اتخاذ القرارات التسلسلية والمعلومات المخفية، كما توفر مساحة أفعال كبيرة مختفية، مما يجعلها منصة مثالية لدراسة استراتيجيات التعلم. تحتوي المعيار الجديد على 3,077 بُعدًا من المشاهدات الجزئية و478 فعلًا ضمن مساحة أفعال مختفية، مع ستة أنماط استراتيجية تنافسية وثلاثة مخططات مكافآت، مما يعزز بيئة البحث.
تستمر MTG-Causal-RL في دفع حدود الاستثمار في التعلم السببي، حيث تعرِّف المتغيرات السببية وتأثيرات التدخلات المتوقعة بناءً على نموذج سببي هيكلي، مما يمكن الباحثين من إجراء تقييمات أكثر دقة حول سياسات التعلم. تم تكييف مجموعة من المعايير المرجعية للمقارنة، مثل PPO العشوائي، وPPO البديل الذي يعتمد على نموذج عالمي سببي.
من خلال تقديم Causal Graph-Factored Advantage PPO (CGFA-PPO) كوكيل مرجعي، تُظهر المنصة كيف يمكن استخدام الأهداف المرتبطة بالاحتمالية كعوامل مهمة في تقييم السياسات.
تصميم MTG-Causal-RL كمعيار موحد للأبحاث يوفر للعلماء والباحثين بيئة اختبار شاملة، حيث يمكنهم دراسة التخصيص السببي تحت مساحات الأفعال المختفية، والنقل الهيكلي عبر الأنماط، وقابلية تدقيق السياسات المستندة إلى النماذج السببية. هذه الابتكارات قد تعيد تشكيل الطريقة التي نفهم بها التعلم القائم على المتغيرات السببية.
فما رأيكم في هذا التقدم الجديد في مجال الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات!
تعلّم التعزيز السببي للألعاب الورقية: المعايير الجديدة من Magic: The Gathering
تمثل MTG-Causal-RL معايير جديدة لتعزيز التعلم السببي في بيئات الألعاب الورقية المعقدة. ما الجديد الذي تقدمه هذه المنصة البحثية للعلماء والباحثين في الذكاء الاصطناعي؟
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
