في عالم تكنولوجيا المعلومات المتقدمة، أصبحت نماذج اللغات الضخمة (Large Language Models - LLMs) تلعب دورًا محوريًا في تحسين عمليات تشغيل الشبكات الكهربائية، ومع ذلك، فإن استخدامها ينطوي على مخاطر جديدة تتعلق بالأمان. فدراسة حديثة قامت بتقييم هذه المخاطر، تسلط الضوء على إمكانية تجاوز نماذج اللغات لحمايتها والتسبب في إنتاج استجابات غير متوافقة مع المعايير التنظيمية.
استنادًا إلى أبحاث أُجريت حول نماذج ثلاث متقدمة، هي GPT-4o mini من OpenAI، Gemini 2.0 Flash-Lite من Google، وClaude 3.5 Haiku من Anthropic، تم اختبارها ضد طرق تجاوز الحماية الشهيرة، مثل Baseline وBitBypass وDeepInception. هذه الدراسة استندت إلى تسعة معايير موثوقة تتعلق بشبكات الطاقة (NERC Reliability Standards) مثل EOP وTOP وCIP، وكشفت أن معدل نجاح الهجمات كان 33.1% في التجربة الأولى، مع برهان DeepInception بأنه الأكثر فعالية بمعدل 63.17%.
بينما أظهرت نموذج Claude 3.5 Haiku مقاومة كاملة (0% ASR)، كانت Gemini 2.0 Flash-Lite الأكثر عرضة للخطر (55.04% ASR)، في حين كان GPT-4o mini معرضًا معتدلًا للخطر (44.34% ASR). التجارب التالية التي قامت بتعديل صياغة المهاجمين في الهجمات الأساسية وBitBypass أدت إلى تسجيل معدل نجاح يبلغ 30.6%، مما يؤكد أن التعديلات الطفيفة في المطالبات يمكن أن تعزز فعالية الطرق البسيطة.
بناءً على النتائج، يتضح أن تطوير استراتيجيات أفضل لحماية هذه النماذج سيكون أمرًا ضروريًا لضمان عدم التعرض لمخاطر تجاوز الأمان، وهو ما يفتح النقاش حول أهمية الاستثمار في الأمان الرقمي وتقنيات الذكاء الاصطناعي في المستقبل.
الكشف عن ثغرات تجاوز الحماية في نماذج اللغات الضخمة: كيف تؤثر على تشغيل الشبكات الذكية؟
دراسة جديدة تبرز مخاطر استخدام نماذج اللغات الضخمة (LLMs) في تشغيل الشبكات الكهربائية، حيث تكشف عن ثغرات تسمح بتجاوز الأمان والاستجابة لمطالبات غير ملائمة. النتائج تتطلب إعادة تقييم الخطط الأمنية في هذا المجال.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
