تعتبر وسائل التواصل الاجتماعي ساحة مهمة لتفاعل الملايين وتشكيل الآراء. ومع مشاركة الوكالات المعتمدة على الذكاء الاصطناعي بشكل متزايد في هذه الفضاءات، يصبح فهم سلوكها ودقتها أمرًا حيويًا. وكشفت دراسة جديدة أنه من الممكن استخدام نماذج لغوية كبيرة (LLMs) لتنبؤ تفاعلات المستخدمين، لكن النتائج تعتبر مثيرة للاهتمام.

استند البحث إلى أكثر من 120,000 نموذج شخصي مأخوذ من 1,511 مشاركًا في صربيا، وقام بتحليل دقة الوكالات في التنبؤ بتفاعلات المستخدمين (مثل، لا تعجبني، تعليق، مشاركة، عدم رد) عبر استخدام 27 نموذجًا لغويًا. تبيّن أن الوكالات كانت قادرة على تحقيق دقة إجمالية بلغت 70.7%، ولكن الفارق في الأداء كان واضحًا بين النماذج المختلفة.

في الدراسة الأولى، أظهرت الوكالات تباينًا في الأداء وصل إلى 13 نقطة مئوية بناءً على النموذج المستخدم. وعندما تم استخدام تقييم ثنائي (مثل/لا تعجبني) في الدراسة الثانية، حصلت الوكالات على معامل ارتباط ماثيو (MCC) قدره 0.29، مما يدل على قدرة تنبؤية تتجاوز الحظ. ومع ذلك، كانت المصفوفات النصية التقليدية التي تعتمد على تمثيلات TF-IDF أكثر تفوقًا بفارق بسيط (MCC قدره 0.36).

تشير هذه النتائج إلى أن هناك تقديرات قد تعكس الوصول الدلالي بدلاً من التفكير الذاتي الفريد للذكاء الاصطناعي. كما تحذر الدراسة من إمكانية استغلال هذه الوكالات في التضليل من خلال نشر عدد كبير من الوكالات المتنوعة سلوكيًا على وسائل التواصل الاجتماعي. في المقابل، تقدم هذه البحوث فرصًا لاستغلال الوكالات للتنبؤ بالديناميكيات القطبية وإبلاغ السياسات المتعلقة بالذكاء الاصطناعي.

من المثير أن هذه الوكالات لا تتطلب تدريبًا خاصًا لتحقيق نتائجها، مما يسهل نشرها على نطاق واسع في سياقات متنوعة، لكن هناك قيود على البحث الحالي بسبب عينة من دولة واحدة فقط. يتعين على الأبحاث المستقبلية استكشاف اختبارات متعددة اللغات وأساليب تحسين الأداء.