في عالم الذكاء الاصطناعي، نشهد ظهور أساليب جديدة تسهم في تحسين التفكير المنطقي عند استخدام نماذج اللغات الضخمة (Large Language Models)، ومن بينها مفهوم النقاش المتعدد الوكلاء. ومع ذلك، تواجه هذه methodologies الحالية بعض القيود الهيكلية. حيث يميل النقاش إلى إحداث تأثيرات مشابهة لعمليات المارتينجال على مسارات الاعتقاد، كما أن التصويت بالأغلبية يعد السبب الرئيسي لمعظم المكاسب الملحوظة.

اكتشف العلماء من خلال بحوثهم أن القيمة الحقيقية للنقاش، ونظم الجدال ككل، لا تكمن في مهام الحقيقة المطلقة، بل في المجالات التي يمكن دحض كل موقف فيها من خلال reasoning أفضل. هنا يأتي دور مجلس اللغة العاملة الهرمي (CHAL)، الذي يقدم إطاراً جدلياً متعدد الوكلاء يعامل الجدال القابل للدحض كوسيلة لتحسين المعتقدات.

يحتفظ كل وكيل بشجرة اعتقاد (CHAL Belief Schema) تمثل معتقداته في شكل بياني، مع بناء معماري مستوحى من بايز، مما يسهل مراجعة المعتقدات من خلال آلية ديناميكية مستندة إلى التغيرات. حيث يتم تعزيز أنظمة القيمة الذاتية التي تشمل المعرفة، المنطق، والأخلاق، لتكون بارامترات قابلة للتكوين تتحكم في عمليات التفكير والحكم لدى الوكلاء.

تظهر التجارب الاستكشافية التي أجريناها آثاراً توضيحية وممنهجة، حيث إن نظام قيمة المحكم يؤثر على الاتجاهات الإجمالية للنقاش. فضلاً عن أن تنوع المجلس يساهم في تحسين المعتقدات لدى جميع المشاركين، كما أن الإطار يتعمم عبر مجالات واسعة. يُعتبر CHAL، إلى حد علمنا، الإطار الأول الذي يعالج النقاشات المتعددة الوكلاء كتحديد هيكلي لتحسين المعتقدات في المجالات القابلة للدحض.

علاوة على ذلك، تضع الآثار الموثوقة التي ينتجها CHAL الأساس لمجموعات تقييم مخصصة حول الجدالات القابلة للدحض، مما يفتح آفاقاً واسعة لبناء أنظمة ذكاء اصطناعي يتسم reasoning وقيمها بالشفافية والمواءمة، ويخضع لرقابة الإنسان.