في عصر يعتمد فيه الذكاء الاصطناعي (AI) بشكل متزايد على التفاعل مع المستخدمين، يتعين على وكلاء نماذج اللغة الكبيرة (Large Language Models) أن يتكيفوا مع أنماط التواصل المتنوعة. لكن جمع بيانات حقيقية لتفاعلات المستخدمين على نطاق واسع يعد أمرًا مكلفًا ومعقدًا. لذا، تم التوجه إلى محاكيات المستخدم المستندة إلى نماذج اللغة الكبيرة كبديل.
ومع ذلك، تظهر مشكلة كبيرة: هذه المحاكيات غالبًا ما تعكس سلوك نماذجها الأساسية، مما ينتج عنه وكلاء يتصرفون بطريقة متعاونة ومتجانسة، ما لا يعكس بدقة تفاعلات المستخدمين الحقيقيين. لذلك، تم تقديم "سياسات الشخصية" (Persona Policies أو PPol) كطبقة تحكم قابلة للتوصيل تهدف إلى تقديم تنوع سلوكي واقعي في محاكيات المستخدمين، مع الحفاظ على أهداف المهام الأصلية.
بدلاً من تصميم شخصيات يدويًا، يقوم هذا النظام بتوظيف نماذج اللغة الكبيرة (LLM) في بحث تطوري لتحسين مولدات السلوكيات، وبالتالي اكتشاف سلوكيات جديدة وترجمتها إلى سياسات تفاعلية تحافظ على المهام. تعتمد مولدات المرشحين على درجة لياقة متعددة الأهداف تجمع بين مدى الشبه البشري والتغطية الواسعة للأنماط السلوكية البشرية.
عند تطبيق هذه السياسات على مجموعة من المجالات مثل التجزئة والطيران، تم تحقيق تحسينات بنسبة 33-62% في درجة اللياقة مقارنةً بالمحاكيات التقليدية. وعند إلقاء نظرة على تقييمات عمياء، تم تصنيف المستخدمين الذين تم تدريبهم باستخدام PPol كأشخاص حقيقيين بنسبة 80.4%، مما يعكس مدى قرب هذه التفاعلات من التفاعلات الحقيقية.
علاوة على ذلك، ساعدت وكلاء الذكاء الاصطناعي المدربة باستخدام PPol في تعزيز قدرتها على التعامل مع سلوكيات خارج نطاق التوزيع، مما أدى إلى زيادة في نجاح المهام بنسبة 17%. هذا الابتكار يعد خطوة جديدة نحو تعزيز تقييمات المحاكيات والتدريب بدون تغيير المهام أو المكافآت.
ثورة في محاكاة المستخدمين: تصاميم شخصية واقعية لتعزيز أداء وكلاء الذكاء الاصطناعي
تقدم الأبحاث الحديثة نهجًا مبتكرًا لإنشاء شخصيات مستخدمين واقعية باستخدام نماذج اللغة الكبيرة (LLM)، مما يعزز أداء الوكلاء في تفاعلاتهم. هذا التطور يفتح آفاقًا جديدة في تقييم وتدريب الوكلاء الذكيين.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
