هل تؤدي أدوات الذكاء الاصطناعي إلى الإفراط في الاستخدام؟ اكتشاف ظاهرة جديدة في نماذج اللغات الضخمة!
🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

هل تؤدي أدوات الذكاء الاصطناعي إلى الإفراط في الاستخدام؟ اكتشاف ظاهرة جديدة في نماذج اللغات الضخمة!

يرصد بحث جديد ظاهرة الإفراط في استخدام الأدوات الخارجية من قبل نماذج اللغات الضخمة (LLMs) خلال عمليات التفكير. من خلال تحليل عميق، يكشف الباحثون عن أسباب وآلية هذه الظاهرة وكيفية تحسين آثارها.

في عالم الذكاء الاصطناعي، تسهم نماذج اللغات الضخمة (LLMs) في تحقيق إنجازاتٍ astounding، لكنها تواجه تحديات هامة تتطلب دراسة متعمقة. أحدث الأبحاث في هذا المجال، المنشورة على arXiv، تتناول ظاهرة مثيرة تُعرف باسم "الإفراط في استخدام الأدوات"، والتي تعني استخدام الأدوات الخارجية بشكل غير ضروري أثناء عملية التفكير.

خلال التجارب، اكتشف الباحثون أن هذه الظاهرة قد تكون شائعة عبر مجموعة متنوعة من نماذج اللغات الضخمة. وقد قاموا بتحليل سلوك الاستخدام للأدوات بناءً على توفر المعرفة الداخلية، وكشفت النتائج عن وجود "وهم معرفي"، حيث تعجز النماذج عن تقدير حدود معرفتها الداخلية بدقة.

, وللتغلب على هذا التحدي، يقترح الباحثون استراتيجية تحسين حدود المعرفة تعتمد على التفضيلات المباشرة، مما يسفر عن تقليل استخدام الأدوات بنسبة 82.8% مع زيادة دقة النتائج.

علاوة على ذلك، تم الكشف عن رابط سببي بين هياكل المكافآت وسلوك استخدام الأدوات. تكشف عملية التدريب المعززة بالأدوات عن أن "المكافآت القائمة على النتائج فقط" تعزز استخدام الأدوات بشكل غير ضروري، حيث يُكافأ النموذج فقط على دقة النتيجة النهائية دون اعتبار لكفاءة الأدوات المستخدمة. وضعت التجارب الجديدة مناهج لتوازن إشارات المكافآت، مما قلل من استخدام الأدوات الزائد بنسبة 66.7% (من 7 مليارات استدعاء) و60.7% (من 32 مليار استدعاء) دون المساس بالدقة.

هذا البحث يفتح أبوابًا جديدة لفهم كيف يمكن تحسين أداء نماذج الذكاء الاصطناعي، ويشجع على دراسة أعمق لهذه الظواهر المهمة. هل سرقت الأدوات الخارجية كل الفضل من المعرفة الداخلية؟ شاركونا آرائكم في التعليقات!
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة