في عالم الذكاء الاصطناعي، ينكشف اليوم عن أسرار جديدة تتعلق بكيفية تفكير نماذج اللغات الضخمة (LLMs)، وخاصة تلك النماذج المعتمدة على التفكير المنطقي. قدمت الأبحاث الأخيرة طريقة مبتكرة لاستخراج وتحليل شجرات البحث عندما تكون هذه النماذج في حالة تفكير عميق حول نتائج المستقبل.

تستند هذه الدراسة إلى لعبة بسيطة تُعرف ب"أربعة في صف"، حيث استخدم الباحثون شجرات البحث لفهم كيفية تنظيم الخطط التي تتبعها نماذج اللغات وما التأثير الذي تتركه على قرارات الحركة. والنتائج كانت مثيرة: وجدت الأبحاث أن عمليات البحث التي تنفذها نماذج الذكاء الاصطناعي تعتبر أقل عمقًا من تلك التي يقوم بها البشر.

بشكل أكثر إثارة، على الرغم من أن نماذج اللغات الضخمة قد توسع نطاق رؤاها العميقة، فإن قراراتها الحركية بدت مقيدة بنموذج قصير النظر يتجاهل تلك النماذج العميقة كليًا. كما كانت هناك دراسة تداخلية عرضت كيفية تقليم فقرات التفكير المنطقي، مما أظهر أن الاختيار يعتمد في الغالب على العوامل السطحية.

تظهر هذه المعطيات فرقًا جوهريًا بين أداء التخطيط لدى البشر ونماذج الذكاء الاصطناعي، حيث يعتمد التميز البشري على بحث عميق بينما تُظهر نماذج الذكاء الاصطناعي توجهاً نحو نموذج ضحل. وبالتالي، يوفر هذا البحث إرشادات مستهدفة لتقريب الفجوة بين التفكير البشري والذكاء الاصطناعي.

بشكل عام، يوفر الإطار المستخدم في هذه الدراسة نهجًا عامًا لفهم كيفية تشكيل التخطيط في نماذج اللغات الضخمة عبر مجالات استراتيجية مختلفة.

ما رأيكم في هذه الاكتشافات؟ هل تعتقدون أن المستقبل سيشهد تحسناً في قدرة الذكاء الاصطناعي على التخطيط الشامل؟ شاركونا آراءكم في التعليقات!