في عالم الذكاء الاصطناعي، تمثل نماذج اللغات الضخمة (Large Language Models) قاعدة أساسية في تطوير التطبيقات الذكية. ومع تزايد الحاجة إلى تحديث معلومات هذه النماذج باستمرار، ظهرت حاجة ملحة لتطوير طرق تسمح بإجراء تعديلات دائمة دون الحاجة إلى إعادة تدريب كل مكونات النموذج، وهذا ما تمحور حوله البحث الجديد الذي قدمه العلماء تحت عنوان "LightEdit".
تعتمد إستراتيجية LightEdit على تحرير المعرفة بشكل يعيش في تناغم مستمر مع التطورات الحياتية للحقائق. سابقًا، كانت طرق تحرير المعلمات تعاني من مشكلات تتعلق بالاستقرار أثناء التعديلات المتعاقبة، وهذا يعود إلى ظاهرة النسيان الكارثي. بينما اقترحت أساليب قائمة على الاسترجاع لتخفيف هذه المشكلة، إلا أنها كانت تعاني من تكلفة تدريب عالية.[1]
الإطار الذي قدمه الباحثون يبدأ بتحديد المعرفة ذات الصلة من المعلومات المسترجعة لتعديل الاستعلام بفعالية، ثم يدمج استراتيجية فك تشفير لخفض احتمالات المعرفة الأصلية للنموذج. هذه العملية تتيح إجراء تعديلات فعالة استناداً إلى المعلومات المحددة.
أظهرت التجارب المكثفة على معايير زسري (ZSRE)، وكاونتر فاكت (Counterfact)، وريبي (RIPE) أن LightEdit تفوق الطرق الحالية في تحرير المعرفة الدائمة. بالإضافة إلى ذلك، من خلال تقليل تكاليف التدريب، يحقق LightEdit قابلية توسيع فعالة، مما يمكّنها من التكيف بسهولة مع مجموعات البيانات المختلفة.
بذلك، يمكننا أن نتوقع أن تغير هذه الابتكارات كيفية تفاعل النماذج مع المعلومات المتغيرة في العالم من حولنا، مما يجعلها أكثر ذكاءً وفعالية في تلبية احتياجات المستخدمين.
ثورة تحرير المعرفة الدائمة: استراتيجيات جديدة لتحديث نماذج الذكاء الاصطناعي
تقدم دراسة جديدة إطار عمل مبتكراً يُعرف بـ LightEdit، يهدف إلى تسهيل تحديث المعلومات في نماذج اللغات الضخمة (LLMs) بشكل فعّال دون الحاجة إلى إعادة تدريب كامل للنموذج. هذا الابتكار يعد بتحسين كفاءة التحرير الدائم للمعرفة مع تقليل التكاليف التدريبية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
