في ظل تزايد الاعتماد على الذكاء الاصطناعي (AI) لتوليد استجابات شاملة تعكس آراء الجمهور في الاستشارات والسياسات العامة، تبرز الحاجة الملحة إلى وجود إطار عمل رسمي لضمان تمثيل هذه الاستجابات بدقة للقاعدة الشعبية. هذه الفجوة في المساءلة لا تعالجها الطرق الحالية التي تركز على جودة المخرجات، بينما يتجاهل معظمها الفوائد المترتبة على دقة البيانات المدخلة.
يقدم البحث الجديد مفهوم 'الانتساب التشاركي'، وهو إطار قياسي يستند إلى نظرية النقل الأمثل (Optimal Transport Theory) واستدلال سببي (Causal Inference) وتحليل دلالي (Semantic Analysis). يهدف هذا الإطار إلى تتبع كيفية تحويل وتصنيف وفقدان الاستجابات الفردية من خلال عملية تلخيص مدعومة بالذكاء الاصطناعي.
تم تطبيق هذا الإطار على استشارة استراتيجية الذكاء الاصطناعي الوطنية في كندا لعام 2025-2026، حيث شارك فيها 5253 مستجيبًا تناولوا موضوعين مختلفين للسياسة. وكشفت النتائج أن الملخصات الرسمية الحكومية كانت أقل أداءً بنحو 9.1% و8.0% مقارنةً بمستوى عشوائي من الاستجابات، ما يعني أن 16.9% و15.3% من المشاركين تم استبعادهم فعليًا.
برز استبعاد المشاركين بشكل خاص بين الفئات التي تعبر عن معارضتها وشكوكها تجاه استخدام الذكاء الاصطناعي، حيث بلغت نسب الاستبعاد 33% إلى 88%. بالإضافة إلى ذلك، تنبأت عوامل مثل القصر والعزلة الدلالية والنبرة البلاغية بشكل مستقل بالنتائج التمثيلية للأسئلة.
لإضافة المزيد من الشفافية، تم تطوير أداة تفاعلية مفتوحة المصدر تُعرف باسم 'معمل الانتساب التشاركي'، والتي تمكن صانعي السياسات من مراجعة وتعديل الملخصات بشكل دوري، مما يضمن وجود إشراف حقيقي من قبل البشر على نطاق واسع.
ثورة جديدة في الشفافية: كيف يمكن لمبدأ الانتساب التشاركي تحسين العمليات الاستشارية المدعومة بالذكاء الاصطناعي؟
تكشف دراسة جديدة عن فجوة محورية في الشفافية خلال استخدام الذكاء الاصطناعي في الاستشارات العامة، حيث قُدِّم إطار عمل جديد يسمى 'الانتساب التشاركي' لمراقبة مدى تمثيل الملخصات للآراء الشعبية. هذا الابتكار يعد بتحسين جودة المشاركة العامة وتفعيل دورها.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
