في عالم الذكاء الاصطناعي، تطورت الحاجة إلى إنشاء وكلاء ذكيين يستطيعون التفاعل بشكل أفضل مع البشر. قدم باحثون مؤخرًا الإطار الجديد "Open-Universe Assistance Games" (OU-AGs)، الذي يهدف إلى تعزيز فعالية الوكلاء المعتمدين على نماذج اللغات الضخمة (Large Language Models) بما يتماشى مع أهداف المستخدمين المتغيرة.

غالبًا ما يواجه الوكلاء الذكيون صعوبة في التفاعل في حوارات متعددة الجولات، وذلك بسبب عدم قدرتهم على التكيف مع النوايا المتطورة للمستخدمين. يعتمد معظم الوكلاء الحاليين على افتراضات مسبقة حول تفضيلات المستخدمين الثابتة، وهو ما لا يتماشى مع الواقع في حوارات مفتوحة حيث يتم تعديل الأهداف بكثرة.

استنادًا إلى الأبحاث المعرفية في كيفية بناء التفضيلات، تمثل OU-AGs تفضيلات الإنسان على أنها توزيع ديناميكي يتحدث عن الأهداف في لغة طبيعية. ومن أجل جعل OU-AGs قابلة للتطبيق، تم تقديم طريقة جديدة تُعرف باسم GOOD (GOals from Open-ended Dialogue)، والتي تستخدم بيانات فعالة لاستخراج وتصنيف الأهداف المحتملة أثناء التفاعل.

تقوم هذه الطريقة باستخدام محاكاة من قبل نماذج لغات قوية لاستنتاج الأهداف المحتملة بطريقة احتمالية، مما يسمح بتقديم تمثيلات لمشاعر التفضيل تدرك عدم اليقين من دون الحاجة إلى مجموعات بيانات ضخمة. تم تقييم GOOD عبر ثلاثة مجالات نصية: التسوق، الروبوتات المنزلية، وبرمجة الشيفرات، ونتيجة لذلك، حققت تمثيلات أهداف متماسكة بشكل أكبر وحققت توافقًا أفضل، مما يعكس أعمق لفهم نوايا المستخدم.

إن هذه التطورات تمثل خطوة مهمة نحو تحسين كيفية تفاعلنا مع الوكلاء الذكيين وجعلهم أكثر فهمًا لاحتياجاتنا وتوقعاتنا. كيف تعتقد أن هذا الابتكار سيدعم تحسين تجربة المستخدم في المستقبل؟ شاركونا آراءكم.