في دراسة حديثة تم تقديمها على منصة arXiv، تم تسليط الضوء على نقاش فلسفي وتقني مثير حول قدرة أنظمة الذكاء الاصطناعي (AI) على تحقيق مستويات عالية من الدقة والثقة، مثل تلك التي يمتلكها البشر. يقوم الباحثون بتعريف الدقة كخاصية تضمن أن النظام لا يقدم أي ادعاءات خاطئة عندما يمكنه الامتناع عن الإدلاء بتوقع معين. أما الثقة، فهي افتراض أن النظام دقيق. من ناحية أخرى، يعتبر التفكير بمستوى البشر هو قدرة النظام على مطابقة أو تجاوز القدرات الإنسانية.

تشير النتائج الرئيسية لهذه الدراسة إلى أنه وفقًا للتعاريف الرياضية الدقيقة لهذه المفاهيم، فإن أنظمة الذكاء الاصطناعي التي تتمتع بالدقة والثقة لا يمكن أن تكون أنظمة تفكير بمستوى البشر. تمثل هذه النتائج قيودًا مفاجئة، حيث توجد حالات معينة من المهام التي يمكن للبشر حلها بسهولة وبدون جهد، ولكن بنفس الوقت تعجز الأنظمة الذكية عن تقديم نفس مستوى الأداء.

تستند الأدلة التي قدمها الباحثون إلى تشابهات مع نظريات غودل حول النقص وعدم الاكتمال، وكذلك برهان تورينغ المتعلق بمسألة التوقف، مما يزيد من عمق النقاش حول هذه القضايا. إذ إن تجسيد فكرة الثقة كمفهوم يسمح بفصل الخاصية الأساسية للنظام (كونه دقيقًا) عن وضعه المعرفي (كونه موثوقًا).

تفتح هذه الاستنتاجات المجال لمناقشات أوسع حول مدى إمكانية تطوير أنظمة ذكاء اصطناعي قادرة على محاكاة التفكير البشري بأمان وثقة، وتثير تساؤلات حول مستقبل الذكاء الاصطناعي وكيفية دمجه بشكل مسؤول في مجتمعاتنا.