في عصر الذكاء الاصطناعي المتقدم، تلعب نماذج اللغات الضخمة (Large Language Models) دورًا محوريًا في تسهيل التواصل بين البشر والآلات. ولكن، ماذا يحدث عندما يتفاعل المستخدم مع هذه النماذج في محادثات متعددة الأدوار؟

تشير الأبحاث الأخيرة إلى أن المستخدمين يميلون إلى تحسين طلباتهم أو التحول إلى مواضيع جديدة خلال المحادثات، لكن النماذج في كثير من الأحيان تفوت هذه التحولات وتستمر في استخدام سياق غير ذي صلة من الأدوار السابقة، مما يؤدي إلى استجابات غير دقيقة.

سلطت ورقة بحثية جديدة الضوء على هذه المشكلة، حيث قامت بتقييم القدرة على فهم التحولات السياقية خلال المحادثات المتعددة عبر تشديد الضغط على هذه النماذج. تم تعريف اثنين من المهام الفرعية الرئيسية: (1) الكشف عما إذا كان المستخدم قد قام بتحويل أو تصحيح حديثه في الدور الحالي، و(2) اختيار السياق المناسب من الأدوار السابقة.

لاختبار ذلك، تم إنشاء معايير اصطناعية تستند إلى مجموعات بيانات حقيقية من مجالات متنوعة لمحاكاة التحولات السياقية بمستويات صعوبة مختلفة. تمت تقييم الأداء الفوري لعشر نماذج لغات ضخمة، بما في ذلك النماذج مفتوحة الوزن، المغلقة، والنماذج المعتمدة على التفكير.

نتائج الدراسة أظهرت أن بعض النماذج القوية والموجهة توفر دقة جيدة في الكشف عن التحولات، في حين أن النماذج مفتوحة الوزن واجهت صعوبة في إنجاز المهمة، وغالبًا ما استجابت بسياقات قديمة حتى مع وجود إشارات واضحة. كما تبين أن جميع النماذج تعاني من انحياز في الموضع. بناءً على هذه النتائج، تناول الباحثون النقاط الأساسية لتعزيز الاستقرار طويل الأمد في القدرات متعددة الأدوار لهذه النماذج.

تعتبر هذه الدراسة خطوة مهمة نحو تحسين التفاعل بين المستخدمين والنماذج اللغوية، حيث تفتح آفاقًا جديدة لفهم السياقات المختلفة وضمان ردود دقيقة وسريعة. كيف تعتقد أن هذه التطورات ستؤثر على مستقبل التفاعل مع الذكاء الاصطناعي؟