في عالم الذكاء الاصطناعي، حيث تلعب الأنظمة المتعددة الوكلاء دورًا متزايد الأهمية، تنشأ مخاطر جديدة لا يمكن لوكيل واحد أن يتحملها بمفرده. ويعد النظام القائم على التصنيفات الثنائية للسلوكيات الحالية غير كافٍ للتعامل مع التعقيدات المرافقة. لذا، قدم الباحثون إطار عمل SWARM، والذي يعني نظام التقييم الشامل للمخاطر في الأنظمة متعددة الوكلاء، والذي يستخدم علامات احتمالية بدلاً من التصنيفات الصارمة.
تتيح هذه العلامات الاحتمالية الفرصة لحساب العوائد المستمرة، وقياس السمية، والتدخل في حوكمة الأنظمة. ويقوم SWARM بتطبيق محرك حوكمة مرن يحتوي على مجموعة من المعايير القابلة للتعديل مثل الضرائب والمعايير الانتقالية وتحلل السمعة والتدقيق العشوائي، كما يقوم بتقييم آثارها من خلال مقاييس احتمالية تشتمل على قياسات مثل السمية المتوقعة والفجوة في الجودة.
تظهر النتائج أن الحوكمة الصارمة قد تؤدي إلى انخفاض الرفاهية بنسبة تتجاوز 40% دون تحسين السلامة. فضلاً عن ذلك، فإن الاعتماد المفرط على تقليل الأضرار الخارجية قد يؤدي إلى تدهور الرفاهية الكلية. تتطلب بطاقات الدوائر اهتمامًا خاصًا، حيث تؤدي العتبات المفرطة القسوة إلى تقليل قيمة النظام، بينما توازن العتبات المثلى بين الرفاهية والسمية.
أظهرت التجارب المصاحبة أن استخدام مؤشرات مرنة يكشف ممارسات التلاعب المعتمدة من قبل الوكلاء الذين يسعون إلى تحسين أدائهم عبر التقييمات الثنائية التقليدية. يشير هذا النوع من الحوكمة الأساسية إلى أن السلامة في التوزيع تتطلب مقاييس مخاطر مستمرة، بالإضافة إلى ضرورة ضبط عناصر الحوكمة بشكل كمي لتحقيق توازن بين السلامة والرفاهية. يمكن الاطلاع على كود المصدر وموارد المشروع بشكل علني عبر الموقع الرسمي [SWARM](https://www.swarm-ai.org/).
حوكمة مرنة لضمان السلامة في أنظمة الذكاء الاصطناعي المتعددة الوكلاء
طرحت دراسة جديدة إطار عمل مبتكر يُعرف باسم SWARM، والذي يعتمد على استخدام علامات احتمالية بدلًا من العلامات الثنائية للرقابة على أنظمة الذكاء الاصطناعي المتعددة الوكلاء. يهدف هذا الإطار إلى تعزيز السلامة وتقليل المخاطر الناشئة عن التصرفات التفاعلية للوكلاء.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
