في عصر الذكاء الاصطناعي، تتزايد استخدامات مساعدي القراءة المعتمدين على نماذج اللغات الضخمة (Large Language Models) في سياقات تتطلب التأويل والتفسير بدلاً من مجرد استرجاع المعلومات. ولكن، ما هي الأخطار المرتبطة بهذه التقنية الجديدة؟

تتمثل إحدى المخاطر الرئيسية في التحول في عبء المعنى؛ حيث تنتقل مسؤولية الفهم من القارئ إلى النظام الذكي، مما قد يسبب ارتباكاً في عملية التركيز والقراءة. لتسليط الضوء على هذه القضايا، تم تقديم مفهوم "الحواجز المعرفية" كأداة لفهم القيود التي تساهم بها الأنظمة المعتمدة على الذكاء الاصطناعي أثناء القراءة.

استخدمت الدراسة نموذجاً أولياً بسيطاً يُدعى "TextWalk"، الذي صُمم ليكون مساعداً للقارئ بدلاً من تقديم الإجابات فقط. تم تطبيق بروتوكول مكون من عشر تجارب على اثني عشر نصاً تحليلياً يمثل أربعة فئات من المقالات الجدلية. بدأ البروتوكول بدعم القراءة الأساسي ثم تضخم ليصل إلى استفسارات تفسيرية وضغوط حدودية.

أظهرت النتائج استقرارًا قويًا خلال مرحلة الدعم الأساسي، لكن بدأ الضغط أثناء الاستفسارات التأويلية بالظهور بوضوح. على الرغم من أن المفترض والرؤية البيداغوجية للنظام كانت قوية، إلا أن نظام "TextWalk" بدأ يوزع عبء العمل التفسيري بعيداً عن القارئ، مما أحدث منطقة رمادية بين المساعدة والاستبدال.

تساهم هذه الدراسة في وضع بروتوكول لتقييم الحواجز المعرفية كظواهر تفاعلية في مساعدي القراءة باستخدام الذكاء الاصطناعي، وما يترتب على ذلك من آثار سلوكية تحت الضغوط المختلفة. يمثل ذلك خطوة مهمة نحو فهم كيفية تحسين تلك الأنظمة لتكون أكثر انسجامًا مع احتياجات القراء.