أصبح الذكاء الاصطناعي (AI) جزءًا لا يتجزأ من معظم التطبيقات البرمجية، مما يخلق قلقًا متزايدًا حيال المخاطر المرتبطة باستخدامه. ومن هنا، تظهر الحاجة الملحة للأنظمة والتنظيمات التي تضمن سلامة وأمان هذا النوع من الذكاء. في ورقة بحثية حديثة، تم تقديم إطار عمل جديد يهدف إلى بناء خرائط المعرفة (Knowledge Graphs) من الوثائق السياسية المتعلقة بالذكاء الاصطناعي، مما يساعد على استخراج المعلومات ذات الصلة بالسياسات والإجابة على الأسئلة المعقدة المتعلقة بها.
تقوم هذه الدراسة بإنشاء خرائط المعرفة من ثلاثة سياسات مرتبطة بمخاطر الذكاء الاصطناعي، تحت نظامي أنطولوجيا مختلفين، ثم تقييم خمسة نماذج لغوية (LLMs) على 42 مهمة تتعلق بالسياسات، تتضمن أنواعًا متعددة من الاستدلال، بدءًا من البحث عن الكيانات إلى الاستدلال عبر السياسات. أظهرت النتائج أن تحسين خرائط المعرفة يسهم في تحسين نتائج جميع النماذج الخمسة، كما أن تطبيق أنطولوجيا مكتشفة بواسطة LLM يتفوق أو يضاهي الأنطولوجيا الرسمية.
بهذه الطريقة، يمكن اعتبار هذه الدراسة خطوة كبيرة نحو تعزيز قدرة نماذج الذكاء الاصطناعي على فهم السياسات والامتثال لها بشكل أكثر دقة وفعالية، مما يمكنها من التعامل مع التحديات المتزايدة في هذا المجال.
هل تعتقد أن هذا النوع من الابتكار سيحدث فرقًا في كيفية تنظيم الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات.
ثورة الذكاء الاصطناعي: كيف ستغير خرائط المعرفة اتباع السياسات؟
تقدم ورقة جديدة إطارًا مبتكرًا لبناء خرائط المعرفة من الوثائق السياسية المتعلقة بالذكاء الاصطناعي، لتمكين استجابة أفضل للتحديات الناشئة في هذا المجال. تعزز هذه الطريقة قدرة نماذج اللغات على تحليل السياسات بشكل أكثر كفاءة ودقة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
