في ظل التطور السريع الذي يشهده عالم الذكاء الاصطناعي، أصبحت نماذج اللغة الكبيرة (Large Language Models) تلعب دورًا رئيسيًا في دعم اتخاذ القرارات وتحسين سير العمل. ولكن يبقى سؤال أساسي: كيف تتعامل هذه النماذج مع المخاطر والشكوك أثناء عملية اتخاذ القرار؟

أظهرت دراسة مثيرة مؤخرًا عن 20 نموذجًا من نماذج اللغة الكبير أن هناك فجوة واضحة بين نوعين رئيسيين وهما: نماذج التفكير (Reasoning Models) ونماذج المحادثة (Conversational Models).

تتمحور الدراسة حول جوانب هامة وهي: تمثيل العروض (Prospect Representation) والذي يعتمد على توضيح النتائج أو تاريخ النتائج، والأسباب المُعطاة من قبل النماذج لاتخاذ قرارات معينة (Decision Rationale).

وجد الباحثون أن نماذج التفكير تميل إلى التصرف بطريقة أكثر عقلانية، حيث لا تتأثر بترتيب العروض أو كيفية عرض المكاسب والخسائر، وتظهر سلوكًا ثابتًا سواء كان هناك عروض واضحة أو قدمت وفق تاريخ النتائج. في المقابل، تميل نماذج المحادثة إلى أن تكون أقل عقلانية وأكثر شبهاً بالبشر، حيث تتأثر بترتيب العروض والتفسيرات، مما يشير إلى وجود فجوة ملحوظة بين ما يُعرف بالتاريخ الوصفي في كيفية اتخاذ القرارات.

تفيد الدراسة بأن أحد العوامل الرئيسية التي تميز بين نماذج التفكير ونماذج المحادثة هو التدريب في مجال التفكير الرياضي، مما يشير إلى أهمية الطريقة التي يتم بها تعليم هذه النماذج في تشكيل سلوكياتها.

هل تعتقد أن هذه الفجوة ستؤثر على تطبيقات الذكاء الاصطناعي في المستقبل؟ شاركونا آراءكم في التعليقات!