في الوقت الذي تشهد فيه نماذج اللغات الضخمة (Large Language Models) تقدمًا هائلًا في العديد من التطبيقات، تبرز تساؤلات حول مدى قدرتها على تفسير القرارات الإنسانية بشكل موثوق. تشير ورقة الموقف الجديدة إلى أنه لا ينبغي منح هذه النماذج الفضل في تفسير القرارات بعد، وهو ما يتطلب فهمًا عميقًا لطبيعة التفاعل بين اتخاذ القرار والنماذج الذكية.

تم تحديد ثلاثة ادعاءات رئيسية يتوجب علينا التفريق بينها: التنبؤ بالقرار، توليد المبررات، وتفسير القرار. يتم تقديم أدلة تُبرز أن النماذج لا تدعم سوى الادعائين الأولين، وأحيانًا توليد الفرضيات التفسيرية، ولكنها لا تميز بشكل كافٍ بين تفسير القرار والتبريرات الداعمة للتنبؤ.

يقدم المؤلفون معيارًا مبدئيًا لمنح الفضل في تفسير القرارات، يتطلب أن تكون الادعاءات القوية محددة بالأهداف التفسيرية، وأن تقوم بتمييز البدائل الأضعف من الناحية التبريرية، وتستخدم عمليات تقييس مناسبة. هذا المعيار يهدف إلى الحفاظ على قيمة النماذج في كونها تنبؤية وسردية ومولدة للفرضيات، مع تجنب منحها فضلًا غير مستحق.

يخلص المؤلفون إلى مبدأ لضبط الائتمان: يجب منح النماذج الفضل للأقوى من الادعاءات المدعومة بالأدلة، دون تجاوز ذلك. إذا تم اعتماد هذا المبدأ، سيصبح بإمكان هذه النماذج أدوات موثوقة لاكتشاف واختبار وتواصل تفسيرات السلوك الإنساني.