تعتبر نماذج اللغة الكبيرة (Large Language Models) من أبرز التطورات في مجال الذكاء الاصطناعي، لكن تواجهها تحديات كبيرة، خاصة في ما يتعلق بحماية الخصوصية. ومع تزايد الضغوط القانونية والاجتماعية حول كيفية إدارة البيانات، أصبح من الضروري تطوير أساليب تضمن أمان المعلومات.
في هذا السياق، تم تقديم MPU، وهو إطار متعدد النسخ المزعزعة الذي يحافظ على الخصوصية ويتيح عملية 'نسيان المعرفة' (Knowledge Unlearning) بشكل آمن. يهدف MPU إلى مواجهة التحديات المتمثلة في القيود الصارمة التي تمنع تبادل معلمات الخادم أو مجموعات النسيان للعملاء.
يعمل نظام MPU على تقديم حل مبتكر عبر إدخال وحدتين رئيسيتين:
1. **Pre-Process**: حيث يقوم الخادم بتوزيع عدة نسخ معدلة من النموذج، مما يسمح للعملاء بتنفيذ عملية النسيان على مجموعاتهم الخاصة دون الحاجة للوصول المباشر إلى معلمات الخادم الأصلية.
2. **Post-Process**: حيث يقوم الخادم بعكس عملية التعديل وتجميع التحديثات باستخدام إجراء تقليل الضجيج لمساعدة تأثير التعديلات.
أظهرت التجارب التي أجريت مع سبعة خوارزميات نسيان أن أداء MPU قابل للمقارنة مع المعايير الخالية من الضجيج، حيث أن الانخفاض المتوسط في الأداء كان أقل من 1% حتى 10% من الضجيج، بل وحقق بعض الخوارزميات أداءً أفضل من المعايير الخالية من الضجيج تحت 1% من الضجيج.
يمكنكم الاطلاع على الشيفرة المصدرية للبرنامج عبر [الرابط](https://github.com/Tristan0318/MPU). كانت MPU خطوة كبيرة نحو تحقيق الأمان وحماية الخصوصية في نماذج الذكاء الاصطناعي، مما يثير تساؤلات حول كيف يمكن لهذه الابتكارات أن تتطور في المستقبل.
ما رأيكم في هذه التقنية الجديدة؟ شاركونا برأيك في التعليقات!
MPU: ثورة في أمان وحماية الخصوصية لنماذج اللغة الكبيرة!
تقدم خوارزمية MPU حلاً مبتكرًا لمشكلة الحماية الخصوصية في تعليم الآلة. يتيح هذا النظام للعملاء تنفيذ عمليات نسيان البيانات بشكل آمن دون كشف معلمات الخادم أو مجموعات النسيان الخاصة بهم.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
