في عالم الذكاء الاصطناعي، تعتبر نماذج اللغة الكبيرة (LLMs) من أهم التقنيات المستخدمة، لكن يبدو أن هذه النماذج تواجه تحديات خطيرة لم تُكتشف من قبل. وفقاً لدراسة جديدة منشورة في arXiv، استخدم الباحثون تقنية جديدة تسمى SeedHijack لاختراق عملية اختيار الرموز العشوائية في النماذج.
تعتمد نماذج اللغة الكبيرة عادةً على مولدات الأرقام العشوائية الكاذبة (PRNGs) لأغراض العينة التلقائية، مما يخلق نقطة ضعف رئيسية في سلسلة الإمداد. تمكن فريق البحث من استغلال هذا الضعف لإصابة النماذج بمعدل نجاح مذهل يصل إلى 99.6% من خلال 540 اختبارًا على نموذج GPT-2 (124M)، وصولاً إلى 100% على أربع نماذج متوافقة ذات أحجام تتراوح بين 1.5B إلى 7B.
هذا الهجوم لا يتطلب تعديلات على مخرجات النموذج بل يركز فقط على توجيه اختيارات الرموز وفق رغبات المهاجم. مما يزيد من تركيز المخاطر في هذا المجال. لكن، لا تدع هذا يثنيك، فقد قدم الباحثون حلاً فعّالًا يعتمد على مولدات الأرقام العشوائية الكمومية (QRNG)، والتي تستطيع بأي شكل محايدة هذا الاختراق مع تأثير ضئيل جداً على أداء النظام.
تؤكد النتائج على الحاجة الملحة لتطوير تدابير أمان أقوى في عالم الذكاء الاصطناعي، مما يتطلب استجابة فورية من الشركات والباحثين جميعًا. فهل ستكون مولدات الأرقام الكمومية هي مفتاح الحماية من هذه الهجمات؟
اختراق عشوائي في نماذج اللغة الكبيرة: كيف يمكن لأسلحة الكم الدفاع عن أمننا الرقمي؟
كشف بحث جديد عن ثغرة خطيرة في نماذج اللغة الكبيرة (LLMs) تسمح بالاختراق العشوائي لاختيار الرموز، مما يشكل تهديداً كبيراً. لكن الحل يكمن في مولدات الأرقام العشوائية الكمية (QRNG)، التي يوفر دفاعاً قوياً ضد هذا الاختراق.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
