في عالم الذكاء الاصطناعي، تتزايد أهمية نماذج اللغة (Language Models) بسرعة، ولكن تبقى التحديات قائمة عندما يتعلق الأمر بدقة الإجابات وموثوقيتها. هل تساءلت يومًا كيف يمكن للتحقق من الإجابات مع تحسين جودة البيانات أن يجعل الأمور أفضل؟ هذا ما يقدمه مشروع RSAT (Structured Attribution) الجديد!
يهدف RSAT إلى معالجة أحد أكبر التحديات في نماذج اللغة الصغيرة (Small Language Models - SLMs) التي تتراوح من 1 إلى 8 مليارات معلمة، حيث يفتقر المستخدمون إلى القدرة على التحقق من البيانات التي استندت إليها الإجابات. يعالج هذا المشروع مسألة موثوقية الإجابات عن طريق تقديم آلية جديدة لتدريب النماذج لإنتاج تفكير منطقي خطوة بخطوة مع استشهادات مباشرة تعتمد على بيانات الجدول.
ينقسم مشروع RSAT إلى مرحلتين:
- **المرحلة الأولى (SFT)**: تعلم قيم إخراج هيكلية بتنسيق JSON، يتم بناؤها من مسارات الاستدلال المؤكدة.
- **المرحلة الثانية (GRPO)**: تعمل على تحسين المكافأة المركبة التي تركز على موثوقية الإجابات، مع مراعاة صلاحية الاستشهادات والبساطة.
كانت النتائج مثيرة للإعجاب حيث أظهر RSAT تحسينًا في موثوقية الإجابات بنسبة 3.7 مرة عند مقارنتها بالطريقة التقليدية. لكن ما يميز RSAT حقًا هو تحقيقه لصلاحية الاستشهادات بنسبة قريبة من الكمال تصل إلى 0.992.
للأسف، أظهرت التجارب أنه عند استخدام التوثيق اللاحق، كانت نسبة النجاح أقل من 13%. هذا يُظهر بوضوح أن دمج التوثيق بشكل مباشر في عملية الاستدلال هو أمر أساسي، وليس مجرد إضافة لاحقة.
لا يمكن تجاهل أهمية المكافأة المرتبطة بالموثوقية، حيث أظهرت التجارب أن إزالتها تؤدي إلى تراجع كبير في الدقة.
إن RSAT هو خطوة نوعية نحو مجتمع بيانات أكثر موثوقية، مما يفتح أمامنا آفاقًا جديدة في كيفية تعاملنا مع الأسئلة المعقدة في المستقبل. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
RSAT: تطور مذهل في تعزيز موثوقية نماذج اللغة الصغيرة عبر التوثيق الهيكلي!
يقدم مشروع RSAT نهجًا مبتكرًا لتحسين موثوقية نماذج اللغة الصغيرة (SLMs) من خلال تزويدها بتوثيق هيكلي للاستدلال على البيانات. هذا الإنجاز يزيد من دقة النتائج ويضمن تمثيلًا أفضل للمعلومات.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
