في عالم نماذج اللغة الضخمة (Large Language Models)، كشف الباحثون عن ظاهرة جديدة مثيرة: عدم التناسب بين البلاغة والمعرفة. وفقًا لدراسة جديدة نشرت على منصة arXiv، يوجد نظام مقلق من عدم الدقة يسمى "عدم الاتساق المعرفي البلاغي" (Epistemic-Rhetorical Miscalibration).
أظهرت هذه الدراسة أن نماذج اللغة الضخمة تميل إلى إنتاج نصوص ذات بلاغة عالية ولكن مع مستوى معرفي غير متناسب. لتعميق فهم هذه الظاهرة، تم تطوير إطار عمل يستخدم تصنيفًا ثلاثيًا يُعرف بعلامات المعرفة والبلاغة (Epistemic-Rhetorical Marker - ERM).
يعتمد هذا الإطار على مجموعة متنوعة من المقاييس، بما في ذلك تفاوت الشكل والمعنى (Form-Meaning Divergence - FMD) ونسبة المعرفة الحقيقية إلى المعرفة المتجلية (Genuine-to-Performed Epistemic Ratio - GPR) وتوزيع تباين أدوات البلاغة (Rhetorical Device Distribution Entropy - RDDE).
تمت دراسة 225 نصًا جدليًا تضم حوالي 0.6 مليون كلمة، حيث تم مقارنة نصوص تم إنشاؤها بواسطة نماذج اللغة الضخمة بنصوص من خبراء وباحثين غير خبراء. وكشفت النتائج عن "توقيع معرفي" خاص بالنماذج، حيث أنتجت هذه النماذج الـ"تريكلون" (Tricolon) بمعدل قريب من ضعف معدل الخبراء، بينما أظهر الكتاب البشريون قدرة أكبر على استخدام أدوات البلاغة مثل الـ"إيروتيما" (Erotema).
علاوة على ذلك، كانت علامات عدم اليقين للقائمين على الأداء تظهر بمعدل ضعف كثافة النصوص البشرية. وقد وُجد أن مستويات FMD في نصوص النماذج كانت مرتفعة بشكل كبير مقارنة بكلا المجموعتين البشريتين.
تستند النتائج إلى نظريات من مجالات البراغماتية الجرايسية (Gricean Pragmatics) ونظرية الصلة (Relevance Theory) والذكاء الاستدلالي (Brandomian Inferentialism).
تُجنب هذه الدراسة الأخطاء المألوفة في مجال الذكاء الاصطناعي، ويمكن استخدام خط أنابيب التقييم التلقائي الخاص به كأداة خفيفة الوزن لفحص الدقة المعرفية في المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي.
كشف الغموض: كيفية قياس الفجوة بين البلاغة والمعرفة في نماذج اللغة الضخمة
تتناول الدراسة الجديدة مشكلة عدم الاتساق بين البلاغة والمعرفة في نماذج اللغة الضخمة. من خلال إطار عمل مبتكر، يقترح الباحثون طريقة لقياس هذا الانفصال واستكشاف كيفية تأثيره على نصوص الذكاء الاصطناعي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
