حقق التعلم الفيدرالي (Federated Learning) تقدمًا هائلًا في مجال الذكاء الاصطناعي، حيث يمكّن الوكالات المتعددة من التعلم بشكل متزامن من بيانات متنوعة. ومع ذلك، تثير دراسة حديثة تساؤلات خطيرة حول الأمان في هذا النظام، حيث تحذر من إمكانية تنفيذ هجوم Rowhammer عن بُعد.
يعتبر هجوم Rowhammer نوعًا من الهجمات التي تستهدف ذاكرة الخادم من خلال تحديثات متكررة عالية التكرار، مما يؤدي إلى تغيير بيانات الذاكرة بشكل غير مرغوب فيه. في هذه الدراسة، أظهر الباحثون أنه يمكن استخدام التعلم المعزز (Reinforcement Learning) لتمكين المهاجم من تعظيم تكرار تحديث الذاكرة عن طريق التلاعب بملاحظات أجهزة الاستشعار الخاصة بالعملاء.
بدلاً من الحاجة إلى الوصول الخلفي (Backdoor Access) إلى الخادم، يمكن للهجمات أن تبدأ عبر عملاء عاديين، مما يشكل تهديدًا جديدًا للأمان. التجارب التي أجريت على أنظمة التعرف الصوتي التلقائي (Automatic Speech Recognition) المُعتمدة على التعلم الفيدرالي أثبتت إمكانية تحقيق معدلات تحديث متكررة تصل إلى 70%، مما يسهل على المهاجم تنفيذ ملفات بت (Bit Flips) مع إمكانية فساد بيانات الخادم.
تثير هذه النتائج المخاوف من أنَ الهجمات قد تعطل عملية التعلم أو تمنح صلاحيات مرتفعة غير مصرح بها. من المهم الآن أن يتوجه البحث نحو استراتيجيات فعالة للتخفيف من هذه المخاطر، سواء في تصميم أنظمة التعلم الفيدرالي أو في جوانب الهاردوير. هل سنستطيع الحفاظ على الأمان في عالم الذكاء الاصطناعي المتزايد؟
هجوم Rowhammer عن بُعد: كيف يمكن لمهاجم ذكي استغلال تعلم الشبكات الفيدرالية؟
في تطور مذهل، يُظهر الباحثون كيفية تنفيذ هجوم Rowhammer عن بُعد عبر استغلال نظام التعلم الفيدرالي، مما يثير تساؤلات جديدة حول أمان البيانات. هذه الدراسة تكشف عن مخاطر غير مسبوقة قد تؤثر على بيئات الذكاء الاصطناعي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
