في عالم سريع التغير حيث تتقدم وكالات نموذج اللغة الكبيرة (Large Language Model) بمرور الوقت، أصبحت هذه الأنظمة أكثر ديناميكية وقدرة على تنفيذ عمليات ذات سير عمل معقدة. ومع تزايد الحاجة إلى موثوقية أكبر، تتبنى الأطر متعددة الوكلاء نماذج تعتمد على أدوار متخصصة لتعزيز التفكير الذاتي والمراجعة المشتركة.

ومع ذلك، فإن تطبيق هذه الأدوار يعكس أيضًا تحيزًا إدراكيًا يُعرف باسم "التحيز بين الفاعل والملاحظ" (Actor-Observer Asymmetry - AOA)، حيث يميل الوكيل الذي يعمل كفاعل خلال عملية التفكير الذاتي إلى إرجاع الأخطاء لعوامل خارجية، بينما يعزو الملاحظ نفس الأخطاء لأخطاء داخلية.

في هذا السياق، تمثل نتائج بحثية جديدة خطوة مهمة نحو فهم هذه الظاهرة. باستخدام «مؤشر الفشل الغامض» (Ambiguous Failure Benchmark)، تبين أن تغيير المنظور يمكن أن يؤدي إلى ظهور تأثير AOA في أكثر من 20% من الحالات لمعظم النماذج.

لكن الأمر الجيد هو وجود حل فعّال: يقدم نموذج ReTAS (Reasoning via Thesis-Antithesis-Synthesis) كحلول مبتكرة للتعامل مع هذا التحيز. يعمل ReTAS على تدريب الوكلاء من خلال مواءمة جدلية لتعزيز التفكير المستقل عن المنظور. من خلال دمج سلسلة التفكير الجدلي مع تحسين السياسات النسبية الجماعية (Group Relative Policy Optimization)، يوجه ReTAS الوكلاء نحو دمج وجهات نظر متعارضة في توافق موضوعي.

تظهر التجارب أن ReTAS يقلل بشكل فعّال من عدم تناسق النسب ويحسن بشكل كبير معدلات حل الأخطاء في السيناريوهات الغامضة، مما يعود بالنفع على دقة اتخاذ القرار وعملية التعلم الذاتي للذكاء الاصطناعي.

مع استمرار تطور التكنولوجيا، يبقى السؤال: كيف يمكن أن يؤثر هذا التقدم في المستقبل على طريقة تفكير وكالات الذكاء الاصطناعي؟