في عالم الذكاء الاصطناعي، تتعرض النماذج اللغوية الكبيرة (Large Language Models - LLMs) لمجموعة من التحديات أثناء التفاعلات الطويلة، مثل فقدان الحقائق، والتشويش الزمني، وانحراف الشخصية. ولعلاج هذه المشكلات، تم تقديم إطار ARPM الذي يشكل حوكمة ذاكرة زمنية خارجية لتحسين تجربة الحوار على المدى الطويل.
يعتمد هذا الإطار على فصل ذاكرة المعرفة الثابتة عن ذاكرة تجربة الحوار الديناميكية، ويجمع بين تقنيات مثل استرجاع المتجهات، وBM25، وRRF fusion، وإعادة التنسيق الزمني المزدوج، مما يسهم في معالجة وتحليل الأدلة بطريقة مركزة. على عكس الطرق الأخرى التي تعتمد على ضبط دقة الشخصية من خلال أوزان النموذج أو السياقات الطويلة فقط، يعالج إطار ARPM استمرارية الحوار كقضية حوكمة قابلة للتتبع والمراجعة.
عبر التجارب الهندسية، تم اختبار فعالية ARPM في 50 جولة من أسئلة وأجوبة. حيث تم قياس نسبة الإشارة إلى الضوضاء، ورغم أن الاسترجاع الأوتوماتيكي يمكن أن يقلل من الدقة بعد تقديم الأدلة الداعمة، إلا أن المراجعة اليدوية زادت من هذه الدقة إلى 100%.
كما تظهر النتائج أن استرجاع تاريخ الحوار ضروري لتحقيق استمرارية دقيقة، وأن تعطيل BM25 يسبب انخفاضًا كبيرًا في الدراسة، مما يعني أن الاسترجاع المعتمد على الدلالات فقط غير كافٍ.
مع وجود بيئة تحتوي على 5.1 مليون حرف من الضوضاء، حافظ ARPM على استمرارية الدلالة والشخصية، مما يوفر لنا أملًا جديدًا في معالجة استمرارية الشخصية على المدى الطويل بشكل فعال.
إطار حوكمة ذاكرة زمنية هeterogeneous لتعزيز استمرارية شخصيات النماذج اللغوية طويلة المدى
تواجه النماذج اللغوية الكبيرة (LLMs) صعوبات في الحفاظ على استمرارية الشخصية خلال التفاعلات الطويلة. يقدم إطار ARPM حلاً مبتكرًا يعتمد على تخزين الذاكرة الزمنية لمعالجة هذه التحديات وتحقيق دقة أعلى في التفاعل.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
