في عالم الذكاء الاصطناعي، تساهم نماذج اللغة الكبيرة (LLM) في إحداث ثورة في العديد من المجالات، بما في ذلك الطب. لكن ماذا يحدث عندما تواجه هذه النماذج صعوبات في تقديم إجابات دقيقة؟ في دراسة حديثة على منصة الأبحاث arXiv، تم تسليط الضوء على ظاهرة تُعرف بـ "Overthinking" (OT) والتي تشير إلى حالة سلوكية مستقرة في أسئلة وأجوبة طبية، حيث تحقق النماذج إجابات صحيحة عند إعادة تقويمها لكنها تفشل في السلاسل الطويلة للأفكار.
توصلت الدراسة إلى أن OT تُظهر دقة متوازنة تصل إلى 71.6%، ولكن على الرغم من هذا، جميع العائلات الخمسة من الطرق الثابتة للتوجيه الخطي لم تُظهر أي تحسن. فشل هذا التوجيه، عبر تكوينات متعددة، في تقديم تحسن ملحوظ عبر مختلف النماذج المعمارية. هذه النتائج تدل على وجود تداخل تمثيلي حيث أن اتجاه OT يتداخل بنسبة 85-88% مع الحسابات الحيوية للمهام.
علاوة على ذلك، أظهرت الدراسة أن التوجيه غير المستهدف يؤثر سلباً على الدقة بنسبة -12.1pp، مما يبرز أهمية التركيز على الاتجاهات الصحيحة أثناء معالجة البيانات. بينما أثبتت مقاييس معينة أن الهيكليات التقليدية ليست قادرة على تصحيح الأخطاء، أظهرت النتائج أن الهيكل القابل للفك يمكن أن يدعم تقديرات موثوقية ما بعد الإنتاج.
ما زال أمامنا الكثير من التحديات في مجال الذكاء الاصطناعي، ولكن هذه الدراسة تفتح الأمل في إمكانية استخدام التحليل العميق والإشارات القابلة للفك لتحسين أداء نماذج LLM في المستقبل.
فشل نماذج LLM الطبية: كيف يمكن للإشارات القابلة للفك أن تكشف عن الأخطاء؟
في دراسة جديدة، تم استكشاف الفجوة بين التصنيف والتصحيح في نماذج اللغة الكبيرة (LLM) في مجالات الطب. النتائج تكشف كيفية تأثير الأخطاء على النتائج وكيف يمكن استخدام الإشارات لرفع مستوى الدقة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
