في عالم الذكاء الاصطناعي، يعتبر التعلم الفيدرالي (Federated Learning) من الطرق المثيرة التي تجمع بين عدة جهات لتدريب نماذج الذكاء الاصطناعي دون الحاجة لتبادل البيانات. لكن، تواجه هذه التقنية تحديًا جديدًا في بيئات العمل المعقدة التي تتسم بتعدد الأطراف، حيث قد ينتج عن التنافس أو الضغوط التنظيمية رغبة بعض العملاء في استبعاد الآخرين.

تناول البحث الأخير، الذي يتحدث عنه هذا المقال، المشكلة المُعقدة المعروفة بـ 'النزاعات على مستوى العملاء' وقدم تصنيفًا شاملاً لهذه النزاعات. هذا التصنيف يوفر إطارًا لفهم مختلف السيناريوهات التي قد تواجهها الكيانات عند العمل معًا.

لكن كيف يمكن التغلب على هذه النزاعات؟ إليكم الحل: تم اقتراح استراتيجية متعددة المسارات لتسوية النزاعات، تضمن استبعاد العملاء بشكل صارم من خلال إنشاء وإدارة مسارات تحديث نموذج منعزلة. هذا النهج لا يعالج مسألة النزاع فحسب، بل يحافظ أيضًا على النزاهة والعدالة في عملية التعلم الفيدرالي.

عبر تقييم تجريبي لنظام محاكاة مخصص، تم اختبار النهج عبر 34 سيناريو باستخدام مجموعات بيانات MNIST وN-CMAPSS. أوضحت النتائج أن الاستراتيجية الجديدة تعمل بكفاءة على التعامل مع أنماط النزاع الدائمة، المؤقتة، والمتداخلة.

ومن المثير للاهتمام أن تحليل القابلية للتوسع أظهر أن عبء خوارزمية الحل على مستوى الخادم كان ضئيلًا (<1 مللي ثانية لكل جولة)، حتى تحت حمولة عالية. ولكن، كان العبء الرئيسي على جانب العميل من جراء التدريب في مسارات متعددة، وهو ما يمكن التغلب عليه باستخدام استراتيجية إعادة استخدام النماذج الفرعية.

يبرز هذا العمل أهمية تطبيق استراتيجيات مرنة وقابلة للتوسع لإدارة النزاعات بين العملاء، مما يدعم فعالية التعلم الفيدرالي في مجالات تتطلب الامتثال للسياسات والسيطرة الاستراتيجية. فهل تعتقدون أن هذه الحلول ستغير من طبيعة التعلم الفيدرالي؟