في عالم الذكاء الاصطناعي، تمثل نماذج اللغة الكبيرة (LLMs) ثورة في كيفية معالجة المعلومات وتوليدها. ومع ذلك، تواجه هذه النماذج تحديات كبيرة، خاصة عندما يتعلق الأمر بإلغاء التعلم (unlearning) كآلية لحذف بيانات تدريب ضارة دون التأثير على كفاءتها الإجمالية.

وفقًا لدراسات سابقة، تظهر الأبحاث أن الطرق الحالية التي تُستخدم لإلغاء التعلم تُنتج أحيانًا معلومات ليست دقيقة أو حتى متضاربة، مما يُثير القلق حول السلامة والثقة. غير أن هذه السلوكيات غير الأمينة تدفعنا للغوص في مفهوم الأمانة في سياق إلغاء التعلم.

اقترح الباحثون تعريفًا جديدًا للأمانة في هذا السياق، يتضمن الحفاظ على الكفاءة والأمانة في المعرفة المحتفظ بها، بالإضافة إلى ضمان النسيان الفعال مع ضرورة اعتراف النموذج بحدوده في الإجابة عن الأسئلة ذات الصلة بالمعرفة المنسية.

لذا، تم تقديم مجموعة من المقاييس لتقييم أمانة إلغاء التعلم، تشمل كفاءة النماذج في الحفاظ على المعلومات والأمانة والتفاعل. ومن خلال تقييم تسعة طرق عبر ثلاث عائلات نموذجية، تبين أن جميع الطرق الحالية لم تفِ بهذه المعايير. بعد التحليلات التجريبية والنظرية، ظهر لدينا أسلوب جديد يُعرف باسم ReVa، والذي يُمثل إجراء لضبط التوافق بين التمثيلات، ويساعد في تحسين استجابة النماذج للمعرفة المنسية.

عند إجراء مهام الأسئلة والأجوبة، حقق ReVa أعلى معدل رفض بعد جولتين من التفاعل، مما يُعزز فعالية النموذج بشكل ملحوظ، ويُظهر تحسنًا في الأمانة أيضًا لدى المعرفة المحتفظ بها.

يمكن الاطلاع على البيانات والشيفرات المتعلقة بهذا البحث من خلال الموقع الرسمي: https://github.com/renjiegu. هل تعتقد أن تطوير الأمانة في نماذج الذكاء الاصطناعي أمر ممكن حقًا؟ شاركونا آراءكم في التعليقات!