في عالم الذكاء الاصطناعي، تعد المحادثات متعددة الأطراف تحديًا فريدًا، حيث لا يكفي فقط أن يتمكن النموذج من الإجابة بشكل مناسب، بل يجب أن يعرف أيضًا متى يجب أن يتحدث. هنا تبرز أهمية مجموعة البيانات الجديدة When2Speak.
تقوم When2Speak بتقديم 215,000 مثال مستمد من 16,000 محادثة تضم من 2 إلى 6 متحدثين، وتغطي أنماطًا متنوعة من المحادثات، مما يسمح لنماذج اللغة الكبيرة (Large Language Models) بتحسين قدرتها على اتخاذ قرارات مثل "التحدث" أو "الصمت" في كل دورة.
تعتمد مجموعة البيانات على سلسلة إنتاج مكونة من أربع مراحل، تجمع بين أساليب واقعية وابتكار منظم، مما يُساعد على ضمان دقة النتائج. بفضل هذا النموذج، أظهرت النماذج المدربة تحت إشراف هذه المجموعة تحسنًا كبيرًا في الأداء، حيث ارتفعت نسبة Macro F1 بمعدل 60%، وهو ما يعد إنجازًا مثيرًا.
إلا أن تحديات جديدة ظهرت، حيث استمرت النماذج الناتجة في التحرر من بعض التدخلات الضرورية بنسبة تصل إلى 50%. لمواجهة هذا التحدي، تم استخدام التعلم المعزز مع تشكيل مكافآت غير متساوية، مما أسفر عن تقليل معدل التدخلات المفقودة إلى 0.186-0.218.
تشير النتائج إلى أن المشاركة الزمنية هي بُعد مميز وقابل للتدريب في الذكاء التفاعلي، وأن البيانات الاصطناعية المدعومة تمثل طريقًا فعالًا وآمنًا لتفعيل قدرة نماذج اللغة الكبيرة على المشاركة بطريقة أكثر طبيعية في التفاعلات الجماعية.
ما رأيكم في هذا التطور؟ شاركونا في التعليقات!
When2Speak: كيفية تحسين مشاركات الذكاء الاصطناعي في المحادثات المتعددة الأطراف!
أعلنت دراسة جديدة عن مجموعة بيانات تُدعى When2Speak، تهدف إلى تعزيز قدرة نماذج اللغة الكبيرة على المشاركة بشكل أفضل في المحادثات المتعددة الأطراف. تقدم هذه المجموعة أكثر من 215,000 مثال لتحسين توقيت التدخلات في التفاعلات الجماعية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
