في عالم الذكاء الاصطناعي، باتت أوهام نماذج اللغات الضخمة (Large Language Models) قضية تؤثر على موثوقية المعلومات التي يقدمها الذكاء الاصطناعي. ولكن فريق من الباحثين نجح في تطوير إطار عمل مبتكر يُعرف بإسم "proxy-analyzer"، وهو يمكن من الكشف عن هذه الأوهام بكفاءة متزايدة.

بدلاً من فحص النموذج المُنتج، يقوم النظام الجديد بقراءة النصوص التي تم توليدها مسبقاً باستخدام نموذج مفتوح الوزن صغير الحجم، لتمييز الأخطاء عبر تحليل تفاعلات النموذج داخلياً. تم اختبار هذا النظام على نماذج مختلفة مثل Qwen2.5 وGemma-2 وLLaMA، حيث بلغ حجم البارامترات للنماذج المُستخدمة من 0.5 إلى 9 مليارات.

تمكن الباحثون من تحسين دقة اكتشاف الأوهام حيث تفوقوا على نموذج ReDeEP بمعدل 7.4 إلى 10.3 نقاط مئوية. ووجدت الدراسة أن أداء نموذج LLaMA بحجم 3 مليارات بارامتر كان أعلى من نظيره بحجم 8 مليارات، مما يدل على أن الحجم ليس دائماً هو العامل الحاسم في الجودة.

من خلال تحليل 72,135 عينة من خمسة قواعد بيانات للأوهام، يشير هذا التقدم إلى أن هناك إمكانية كبيرة لتحسين دقة النماذج وتعزيز موثوقيتها. يمكن أن يحدث هذا الكشف عن الأوهام ثورة في كيفية استخدامنا للذكاء الاصطناعي خاصةً في مجالات تتطلب دقة وموثوقية المعلومات، مثل الطب والقانون.

على الرغم من النتائج المثيرة، يبقى السؤال مفتوحاً: كيف ستؤثر هذه التطورات في عالم الذكاء الاصطناعي على ثقافتنا ومجتمعنا مستقبلاً؟