أصبح من الواضح أن عالم الإنترنت في تطور مستمر، ومع ذلك، تظهر تقارير جديدة لتسلط الضوء على طغيان محتوى نماذج اللغات الضخمة (Large Language Models) على الويب. يشير تقرير جديد إلى أن هذه النماذج ليست فقط تتزايد في إعداد المحتوى، بل إن قدرتها على التحكم في المواقع الإلكترونية أصبحت مقلقة.

في دراستهم، يشرح الباحثون كيفية استخدام أداة DeGenTWeb لتعقب مواقع الويب التي تعتمد بشكل كبير على المحتوى المولد بواسطة نماذج اللغات الضخمة، حيث يظهر أن غالبية المحتوى في مواقع معينة قد دخلت في نطاق هذه التقنية، مع القليل من التفاعل البشري.

تظهر الدراسة أن تخمين وجود أو عدم وجود محتوى بشري وLOL يتطلب استخدام أدوات معينة، ولكن النتائج تشير إلى أن هذه الأدوات غالبًا ما تكون أقل كفاءة مما يُعلن عنه. ويؤكد الباحثون أنه مع زيادة استخدام نماذج اللغات الضخمة، تتزايد صعوبة التعرف على المستخدمين وأعمالهم في الفضاء الرقمي.

بالمقارنة مع البيانات من Common Crawl ونتائج بحث Bing، تم الكشف عن أن المواقع المهيمنة على محتوى LLM تشهد نمواً ملحوظاً، مما يستدعي التفكير في كيفية ضبط المحتوى المُقدم للجمهور وما يتضمنه من معلومات.

هذه الظاهرة تطرح تساؤلات حول جودة المعلومات ومصداقيتها، وما إذا كان بإمكان الجمهور الثقة في المحتوى الذي يتلقونه عبر الإنترنت. لذا، من المهم لنا جميعًا أن نكون واعين لهذه التطورات ونتعلم كيف نميز بين المحتوى القائم على الذكاء الاصطناعي والمحتوى البشري.