في عالم الذكاء الاصطناعي المتنامي، نرى كيف تُعتبر نماذج اللغة الكبيرة (LLMs) أدوات قادرة على أداء مجموعة متنوعة من المهام، ولكن هل يمكن لهذه النماذج أن تحل محل سلوكنا البشري في تحديد الأهداف؟

أجرى الباحثون دراسة حديثة لاختبار الفرضية القائلة بأن النماذج اللغوية يمكنها أن تعكس تفضيلات الإنسان عند اختيار الأهداف في سياقات التعلم الذاتي. تم استخدام مهام مأخوذة من العلوم المعرفية لقياس الفروق بين سلوكيات البشر وتلك التي تمثلها النماذج مثل GPT-5 وGemini 2.5 Pro وClaude Sonnet 4.5 وQwen3 32B وCentaur.

لقد أظهرت النتائج أن هناك اختلافًا كبيرًا بين سلوكيات البشر وسلوكيات هذه النماذج، حيث يميل الأشخاص إلى اكتشاف وتعلم أهدافهم بطرق متنوعة، بينما تكتفي معظم النماذج باختيار حلول وحيدة، مما يعكس أداءً منخفضًا نسبيًا. كما كشفت الدراسة عن أن التفكير المنطقي والتوجيه الشخصي قد حققا تحسنًا محدودًا، مما يسلط الضوء على قلة القدرة على التكيف والاستجابة للجوانب المعقدة من التفكير البشري.

تعتبر هذه النتائج مهمة للغاية لأنها تشير إلى أن اختيار الأهداف البشري هو فريد من نوعه، مما يستدعي الحذر عند التفكير في استبدال البشر بجزء من أدوارهم في المستقبل. يبدو أن الحلول الآنية لن تكون قادرة على تكرار عُمق التفكير الاستراتيجي والمعقد الذي يمتاز به الإنسان.

في ظل هذه النتائج، تظل التساؤلات قائمة: هل يمكن أن نثق حقًا في الذكاء الاصطناعي ليكون بديلاً عن الإنسان في اتخاذ القرارات المهمة؟

ما رأيكم في هذا التطور؟ شاركونا في التعليقات.