في عالم الذكاء الاصطناعي، تُظهر نماذج اللغة الكبيرة (LLMs) قدرتها على توليد نصوص تبدو واقعية للغاية، ولكن هل تساءلت يومًا عن مدى فعالية المعلومات التي تقدمها؟ دراسة حديثة تكشف عن ظاهرة مثيرة للقلق: توليد استشهادات مزيفة! فقد خلص الباحثون من خلال تحليل تسعة نماذج وأكثر من 108,000 مرجع تم إنشاؤه إلى أن أسماء المؤلفين هي الأكثر عرضة للخطأ.

البحث أظهر أن أنماط الاقتباس لا تؤثر بشكل ملحوظ على دقة الاستشهاد، بينما استخدام طرق تفكير معقدة قد يؤدي إلى تدهور الذاكرة الاسترجاعية. كما وجد الباحثون أن الإشارات حول حالات الهلوسة لا تنتقل بين المجالات المختلفة. من خلال تطبيق تقنيات معينة على خلايا عصبية محددة في نموذج Qwen2.5-32B-Instruct، تمكنوا من التعرف على خلايا عصبية مخصصة تُعرف باسم FH-neurons، المرتبطة بزيادة تحويل هذه الهلوسات.

المثير للاهتمام هو أن التدخلات التجريبية أظهرت أن تعزيز نشاط هذه الخلايا يزيد من الهلوسة، بينما تثبيتها يحسن أداء النموذج بشكل عام. النتائج تشير إلى إمكانية تطوير طرق خفيفة لاكتشاف وتقليل انزلاقات الاقتباس باستخدام إشارات داخل النموذج فقط.

مع تقدم الأبحاث في هذا المجال، يبقى السؤال: هل يمكن لنماذج اللغة الكبيرة أن تصبح أكثر دقة؟ وهل نحن مستعدون لتحديات المعلومات المضللة في عالم الذكاء الاصطناعي؟