في عالم سريع التغير، حيث تتزايد استخدامات الذكاء الاصطناعي، تبلورت فكرة استخدام الشخصيات الرقمية المستندة إلى نماذج اللغة الضخمة (Large Language Models) كبديل فعال للمستجيبين البشريين في الاستطلاعات. لكن السؤال يبقى: متى يمكن أن تحاكي هذه الشخصيات بدقة نتائج الاستطلاعات التي يجريها البشر؟
في دراسة حديثة، تم استخدام لوحة ليدس (LISS panel) لبناء شخصيات رقمية من متغيرات خلفية للمستجيبين وسجلات إجاباتهم قبل عام 2023، لتختبر بعدها هذه الشخصيات ضد إجابات الاحتفاظ بنفس المستجيبين بعد انقطاع. تمت دراسة الأداء على أربعة هياكل للشخصيات، وثلاث نماذج لغة ضخمة، ومهمتين للتنبؤ.
أظهرت النتائج أن الشخصيات الرقمية تُحسن التوافق مع توزيعات ردود المستجيبين البشر، خاصة في المجالات المرتبطة بالسمات والقيم الثابتة. ومع ذلك، لا تزال محدودة في التنبؤ الفردي وتفشل في استعادة بنية المستجيبين المتعددة المتغيرات. فقد قدمت الهياكل المدعومة بالاسترجاع (Retrieval-augmented architectures) أفضل المكاسب، لكن الأداء كان يعتمد أكثر على البنية الداخلية للردود البشرية بدلاً من اختيار النموذج.
ويتمثل أفضل أداء للشخصيات في الأسئلة ذات التباين المنخفض والأنماط الشائعة للمستجيبين، بينما يكون الأداء في أسوأ حالاته للردود الذاتية أو المتنوعة أو النادرة. توفّر هذه النتائج توجيهات عملية حول متى يمكن اعتماد الشخصيات الرقمية في أبحاث الاستطلاعات ومتى لا يزال يتعين الاعتماد على التحقق البشري.
متى يمكن أن تحاكي الشخصيات الرقمية نتائج الاستطلاعات البشرية بدقة؟
تتزايد الاعتمادات على الشخصيات الرقمية المستندة إلى نماذج اللغة الضخمة (LLMs) كبديل للمستجيبين البشريين. تكشف دراسة جديدة عن متى يمكن لهذه الشخصيات أن تقارب نتائج الاستطلاعات البشرية بموثوقية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
