في عصر يعتمد بشكل متزايد على الذكاء الاصطناعي في اتخاذ القرارات، يصبح فهم الآراء الفردية وما وراءها أمرًا بالغ الأهمية. لذا، قدم الباحثون مؤخرًا إطارًا عمل جديدًا يدمج تفسيرات المعلقين (annotator) الخاصة مع نماذج التعلم الآلي. يعزز هذا الإطار من القدرة على تفسير نتائج النموذج من خلال فهم أعمق للآراء المختلفة.
تتجاوز هذه الدراسة مجرد استخدام تسميات متفرقة، إذ توفر التفسيرات المقدمّة من المعلقين إشارات دقيقة حول وجهات النظر الفردية. يتضمن التصميم المقترح آليات تسمح بتكييف التوقعات بناءً على هوية المعلقين والبيانات الديموغرافية الخاصة بهم، مما يعزز دقة النتائج.
تم استخدام مجموعة بيانات تحتوي على ملاحظات الفهم اللغوي الطبيعي (NLI) مع تفسيرات من المعلقين؛ حيث تم تطوير نوعين من المعماريات التفسيرية. الأول هو نظام تفسيري يعتمد على الأساليب المتقدمة (prompt-based explainer)، والثاني هو جسر محدد مسبقًا (prefixed bridge explainer) يُحوّل تمثيلات المصنف المشروطة بالمعلقين مباشرةً إلى نموذج توليدي.
أظهرت النتائج أن تضمين نمذجة التفسيرات يحسن بشكل ملحوظ الأداء التنبؤي مقارنة بنموذج المعلقين التقليدي، مع تحقيق نهج الجسر المحدد مسبقًا استقرارية أكبر في التوافق بين التسميات ودقة دلالية أعلى. كما أثبت النهج المعتمد على الأساليب المتقدمة أنه يوفر تشابهًا لفظيًا أقوى.
تشير هذه النتائج إلى أن نمذجة التفسيرات كتعبيرات عن وجهات نظر دقيقة توفر تمثيلًا أكثر غنىً وصدقًا للاختلافات. لذا، فإن الأساليب المقترحة تدفع نحو نمذجة تبحث في التوجهات الفردية من خلال دمج تفسيرات المعلقين ضمن مكونات التنبؤ والتوليد، مما يفتح آفاقًا جديدة لفهم أفضل في هذا المجال.
مدى دقيق للتوجهات: تطوير نموذج لتفسير الآراء بناءً على تفسيرات المعلقين
تقدم هذه الدراسة إطار عمل يمكن الباحثين من دمج تفسيرات المعلقين الخاصة مع نماذج التعلم الآلي، مما يسهل فهم التوجهات الفردية. النتائج تشير إلى تحسين كبير في الأداء التنبؤي عند تضمين تفسيرات المعطيات.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
