في عالم الذكاء الاصطناعي، يعتبر التعلم الفدرالي (Federated Learning) أحد أحدث طرق التعاون في تدريب النماذج دون الحاجة إلى تبادل البيانات الحساسة. لكن كيف يمكن لهذا النظام التعامل مع الهجمات العدائية (Byzantine Attacks) التي تستهدف العملاء؟ في دراسة حديثة، تم تقديم نهج مبتكر يركز على تصنيف العملاء بناءً على خسائرهم، مما يسمح بتجاوز التحديات المرتبطة بهذا النوع من الهجمات.
يتطلب هذا الاقتراح وجود مشاركين صادقين فقط، وهو عادةً خادم موثوق وعميل واحد، مما يجعله فعالًا دون الحاجة إلى معرفة مسبقة بعدد العملاء الضارين. وقد أظهرت التحليلات النظرية أن هناك فجوات مثالية محدودة حتى تحت أقوى الهجمات العدائية.
في التجارب التي أجريت، أثبتت الخوارزمية أنها تتفوق بشكل كبير على المعايير التقليدية والمعتمدة في التعلم الفدرالي مثل المتوسط، ومتوسط المقصوص، والوسيط، وKrum، وMulti-Krum، وذلك تحت استراتيجيات هجوم متعددة تشمل تعديل تسمية البيانات وإضافة ضوضاء Gaussian.
تأتي هذه النتائج من اختبارات أجريت على مجموعات بيانات شهيرة مثل MNIST وFMNIST وCIFAR-10 باستخدام إطار عمل Flower، مما يفتح الأفق أمام مستقبل أكثر أمانًا في مجالات الذكاء الاصطناعي.
إذا كنت مهتمًا بالتكنولوجيا وأحدث التطورات في الذكاء الاصطناعي، فلا تفوت متابعة هذا الخبر! ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
تعلم فدرالي قوي ضد الهجمات العدائية: تصنيف العملاء بناءً على الفقد!
تكشف الأبحاث الحديثة عن كيفية تمكين التعلم الفدرالي من التعامل مع الهجمات العدائية بشكل فعال، من خلال تصنيف العملاء استنادًا إلى خسائرهم. تجربة جديدة تقدم نتائج مذهلة تفوق الحلول التقليدية!
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
