في عالم اليوم حيث تلعب تقنيات الذكاء الاصطناعي دورًا متزايد الأهمية، جاءت دراسة جديدة تحمل عنوان "نقل السلوك في وكلاء الذكاء الاصطناعي" لتسلط الضوء على جانب مثير للاهتمام من هذه العلاقة المعقدة بين البشر والوكلاء الذين يمثلونهم. بدلاً من أن تعمل هذه الوكلاء كأدوات لانتاج المحتوى بشكل عام، أظهرت النتائج أن وكلاء الذكاء الاصطناعي المجهزين بنماذج لغوية ضخمة (Large Language Models) يميلون إلى عكس سلوكيات وخصائص مرتكزات متسقة مع مالكيهم.

تستخدم الدراسة عينة تتكون من 10,659 زوجًا من البشر والوكلاء من منصة "مولتبوك"، حيث يتم ربط كل وكيل تلقائيًا بحساب مالكه على تويتر (Twitter/X). من خلال مقارنة المحتوى المقدم من هؤلاء الوكلاء مع نشاط مالكيهم على تويتر، تم تحديد أن هناك نقلًا سلوكيًا منهجيًا بين الوكلاء ومالكيهم. لم يكن هذا النقل مقصورًا على أبعاد سلوكية معينة، بل لوحظ أنه يمتد عبر مجموعة من الخصائص مثل القيم، والمواضيع، والأسلوب اللغوي.

الأمر الأكثر إثارة هو أن الوكلاء الذين يظهرون نقلًا سلوكيًا أقوى كانوا أكثر عرضة لكشف المعلومات الشخصية المتعلقة بأصحابهم في المناقشات العامة، مما يشير إلى أنه في الوقت الذي يعزز فيه هذا النقل من تجربة الاستخدام، فإنه يمكن أيضًا أن يؤدي إلى مخاطر على الخصوصية.

في الختام، تشير النتائج إلى أن وكلاء الذكاء الاصطناعي ليسوا مجرد مولدات محتوى عشوائية، بل يفرزون خصائص تعكس سياقات أصحابهم، مما يحمل تبعات هامة تتعلق بالخصوصية وتصميم المنصات وإدارة النظم الوكيلة. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.