محادثات الذكاء الاصطناعي الطويلة تمثل تحديًا كبيرًا، إذ بإمكان نماذج اللغات الكبيرة (LLMs) إنتاج ردود تبدو منطقية، لكنها قد تستند إلى فرضيات تم التخلي عنها مسبقًا. هذا الثغرة في التواصل قد تم استغلالها بشكل فعال من قبل الهجمات الموجهة ضد هذه النماذج.

استجابةً لهذا التحدي، تم تقديم تقنية تحقق زمنية مبتكرة، تعمل على إنشاء رسم بياني اعتمادي صريح يحدد كيف ترتبط المطالبات بالأدلة المقدمة خلال المحادثة. يقوم الـ LLM تصنيف كل جولة في المحادثة إلى واحدة من ثماني عمليات تحديث مستمدة من أربعة أنظمة رسمية، تشمل المنطق الإبستيمولوجي الديناميكي، والاستدلال الاستقرائي، ومنطق الوعي، والحجج.

تعمل هذه التقنية على تقليل التحقق من دعم الاستمرار في المحادثة إلى السير فوق الرسم البياني، حيث يتم تمرير أي سحب للمعلومات عبر نفس الرسم لتنبيه النظام إلى الاستنتاجات التي فقدت دعمها.

أظهرت الاختبارات على مجموعة بيانات LongMemEval-KU أن دقة تقنية التحقق الجديدة تصل إلى 89.7% مقابل 88.5% للنموذج التقليدي، مما يعكس زيادة طفيفية ولكن ملحوظة. بينما في مجموعة اختبار LoCoMo، أثبتت هذه التقنية أنها تنافس الأساليب المعززة بالإسترجاع.

وأكثر من ذلك، قمنا بإنشاء سيناريوهين متعددين لفحص الأداء، حيث حقق التحقق دقة 100% في فئة معينة من الاختبارات، مما يظهر فعالية هذا النظام في معالجة القضايا القديمة.

يدل هذا الابتكار على أهمية التأكد من سلامة المعلومات المستندة إلى تاريخ المحادثة، مما يعد خطوة هامة نحو تحسين موثوقية نماذج اللغات الكبيرة في تطبيقاتها اليومية. هل نحن أمام تحول جديد في عالم الذكاء الاصطناعي؟