تعد تقنيات التعلم الفيدرالي (Federated Learning) تحولاً جوهريًا في كيفية تدريب النماذج المشتركة بين عدة أطراف دون الحاجة لتجميع البيانات الخام في مكان واحد. ويدخل هذا الإطار في نوعين رئيسيين: التعلم الفيدرالي الأفقي (Horizontal Federated Learning) والذي يشترك فيه المشاركون في نفس مجموعة الميزات ولكنهم يحملون عينات مختلفة، والتعلم الفيدرالي العمودي (Vertical Federated Learning) حيث تمتلك الأطراف ميزات متميزة لنفس مجموعة العينات.

من الأمور الأساسية في تدريب VFL هو توافق الكيانات مع الحفاظ على الخصوصية (Privacy-Preserving Entity Alignment)، حيث يتم إنشاء فهرس مشترك لعينة العينات بين الأطراف دون الكشف عن أي عينات متطابقة. تستند الأساليب التقليدية مثل تقاطع المجموعات الخاصة (Private Set Intersection) إلى إمكانية تحقيق هذا التوافق، لكنها تكشف عن العضوية المتقاطعة، مما يعرض العلاقات الحساسة بين قواعد البيانات للخطر. أما اتحاد المجموعات الخاصة (Private Set Union) فيعزز من الحماية من خلال الاعتماد على اتحاد المعرفات بدلاً من التقاطع.

ومع ذلك، تُظهر الأساليب الحالية قيودًا في التعامل مع الأطراف المتعددة أو تفتقر إلى دعم المطابقة المتسامحة مع الأخطاء المطبعية. وهنا تأتي ابتكارات Sherpa.ai حيث تُقدّم بروتوكول PSU متعدد الأطراف لتوافق الكيانات مع الحفاظ على الخصوصية. هذا البروتوكول آمن يُسهل التوافق الدقيق والمتساهل مع الضجيج، مما يجعله مثاليًا للتطبيقات في مجالات مختلفة، مثل الكشف عن الأمراض في الرعاية الصحية بين المؤسسات المتعددة، وتعاون التجار والبنوك في نمذجة المخاطر، واكتشاف الاحتيال عبر مجالات الاتصالات والمالية.

يقدم بروتوكول Sherpa.ai نهجًا مبتكرًا وموثوقًا لتوافق الكيانات المتعددة، وهو ما يعد خطوة فارقة نحو مستقبل آمن وأكثر خصوصية في تطبيقات التعلم الفيدرالي.