في عالم متسارع يتداخل فيه الذكاء الاصطناعي (AI) والسياسة، تبرز قضية العمليات المعرفية (Cognitive Operations) كمحور صراع غير مرئي لكنه حيوي. تركز هذه العمليات على كيفية تشكيل الإدراكات العامة وصنع القرار، مما يجعلها موضوعًا ساخنًا في الحوارات الجيوسياسية. في الآونة الأخيرة، أظهرت دراسة مستندة إلى مجموعة بيانات من انتخابات الرئاسة الأمريكية لعامي 2016 و2024 كيف قامت تقنيات الذكاء الاصطناعي التوليدي (Generative AI) بإعادة صياغة هذا المشهد.

هذا البحث، الذي استند إلى تحليل أكثر من 133,000 منشور على منصة X (سابقًا تويتر)، يكشف عن أنماط سلوكية ولغوية متغيرة بشكل ملحوظ. في الانتخابات القادمة، ارتفعت نسبة المحتوى الأصلي من 59% إلى 93%، مما يشير إلى تضاؤل ​​الريات (Retweets) بشكل شبه كامل. كما انخفضت درجة التداخل اللغوي من 0.99 إلى 0.27، مما يعكس تحولًا في كيفية تعبير الناس عن نفس الموضوعات باستخدام كلمات مختلفة تمامًا.

ومن الجدير بالذكر أن تنسيق الزمان شهد هو الآخر تغييرًا جذريًا، حيث انتقل من الاعتماد الواسع على التنسيق عبر المعاني إلى التركيز على الحضور المتناغم للقصص. تحمل هذه الأنماط الجديدة دلالات عميقة حول كيفية استغلال الذكاء الاصطناعي في إدارة العمليات الخاصة بالعمليات المعرفية، مما يجعل الدول عرضة لمخاطر جديدة إذا لم يتم تبني استراتيجيات تخفيف فعالة.

بناءً على هذا التحليل، يمكن للباحثين والمتخصصين في الأمن الرقمي أن يستفيدوا من هذه النتائج كأساس لدراسات مستقبلية تركز على دور الذكاء الاصطناعي التوليدي في عمليات صنع القرار والمعرفة. تضع هذه المعطيات أيضًا إطار عمل عملي لممارسي الأمن الذين يسعون لتطوير استراتيجيات لرصد المخاطر المحتملة بعد ظهور الذكاء الاصطناعي التوليدي.