أدى إطلاق ChatGPT للجمهور في أواخر عام 2022 إلى إحداث ثورة في الطريقة التي تُستخدم بها تقنية الذكاء الاصطناعي. فمع ظهور أنظمة توليد النصوص، أصبح بإمكان أي شخص تجهيز محتوى نصي معقد وبشري المظهر من خلال إدخال بسيط. ولكن لم يكن هذا التطور مرصوداً فقط من قبل المستخدمين الأفراد، بل جذب أيضًا انتباه المجرمين، الذين بدأوا في استغلال هذه التقنية لإنتاج رسائل احتيالية بشكل أكثر فعالية.
تتراوح الأساليب الاحتيالية بين البريد الإلكتروني العشوائي على نطاق واسع إلى البريد الإلكتروني المستهدف الذي يتم تصميمه ليبدو كأنه من مصدر موثوق، مما يجعل الضحايا أكثر عرضة للخداع. تستخدم نماذج اللغة الكبيرة (Large Language Models) لإنشاء نصوص مقنعة، مما يجعل من الصعب تمييزها عن المراسلات الشرعية.
وبينما يزداد الاعتماد على التكنولوجيا، يبرز التساؤل حول كيفية حماية أنفسنا من هذه الهجمات. توصي الخبراء بتطوير مهارات نقدية قوية عند التعامل مع المحتوى الرقمي، والبحث عن علامات التحذير مثل الأخطاء اللغوية أو الطلبات غير العادية.
في ختام الأمر، يجسد هذا التطور في استخدام الذكاء الاصطناعي للغرض الاحتيالي الحاجة إلى زيادة الوعي بتقنيات الأمان السيبراني. فما هي الإجراءات التي تتخذها لحماية نفسك من مثل هذه المخاطر؟
الاحتيال المعزز: كيف يستخدم المجرمون الذكاء الاصطناعي للتلاعب بالناس؟
مع إطلاق ChatGPT في أواخر 2022، أصبح من السهل للمجرمين استخدام الذكاء الاصطناعي لإنشاء نصوص تنخدع بها الضحية. استعدوا لاكتشاف كيفية استفادتهم من نماذج اللغة الكبيرة في تنفيذ خدعهم.
المصدر الأصلي:MIT للتقنية
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
