في عصر يزداد فيه الاعتماد على نماذج اللغات الضخمة (LLMs) في أنظمة الذكاء الاصطناعي (AI)، تبرز الحاجة الملحة لتقييم مدى قدرة هذه النماذج على فهم وتطبيق القواعد اللغوية بطريقة تُعبر عن الأداء المرجو. تم تطوير إطار RoboGrid الجديد كوسيلة لفحص قدرة هذه النماذج على التفسير في سياقات جديدة، مع التركيز على كيفية استجابتها لقواعد اللغة الحرة (context-free grammar).
تتطلب الأنظمة الذكية أن تكون النماذج قادرة على التعامل مع واجهات تُفهم آليًا وتكون محددة ديناميكيًا. وفي هذا السياق، أجريت اختبارات متحكم بها تركزت على عمق الاسترجاع وتعقيد التعبيرات وأنماط السطح. أظهرت النتائج تدهورًا هرميًا مستمرًا؛ حيث تبين أن النماذج تحتفظ غالبًا بالنحو السطحي لكنها تفشل في الحفاظ على دلالتها الهيكلية.
رغم أن استخدام أسلوب التفكير (Chain of Thought) قد يساهم في تقليل الفجوات في الأداء، إلا أن الأداء يؤثر سلبًا في الظروف المركبة بشكل خاص، حيث يصبح الفشل أكثر وضوحًا في حالات الاسترجاع العميق والفروع العالية، مما يؤدي إلى فقدان المعنى الدلالي في العمق الشديد.
كما أن استخدام مصطلحات "غريبة" أظهر أن النماذج تعتمد بشكل كبير على تعزيز المعاني من خلال الكلمات الرئيسية بدلاً من الاستنتاج الرمزي الخالص. هذه النتائج تُسلط الضوء على الفجوات الحرجة في تتبع الحالات الهرمية المطلوبة لوكلاء موثوقين وغير تابعين لقواعد محددة.
مع تزايد التطورات في هذا المجال، يبقى السؤال: كيف يمكن تحسين هذه النماذج لتعزيز فهمها للقواعد اللغوية وضمان استجابتها بشكل أكثر دقة؟
تحديات فهم القواعد اللغوية في نماذج الذكاء الاصطناعي: ماذا تعني نتائج التجارب الجديدة؟
يشير بحث جديد إلى أن نماذج اللغات الضخمة (LLMs) تواجه صعوبات في فهم القواعد اللغوية الديناميكية بشكل متسق. من خلال إطار عمل مبتكر، تم الكشف عن ثغرات حيوية في القدرة على الحفاظ على المعاني الهيكلية أثناء معالجة العبارات المركبة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
