في عالم الذكاء الاصطناعي (AI) المتنامي، تكتسب نماذج اللغات متعددة الوسائط (Multimodal Large Language Models) شهرة متزايدة كعوامل مستقلة تعمل في بيئات تفاعلية. ولكن، هل تستطيع هذه النماذج التعامل بفعالية مع مخاطر السلامة في تلك البيئات؟ هنا يأتي دور نموذج SafetyALFRED.
تم بناء SafetyALFRED استنادًا إلى معيار الوكيل الملموس (Embodied Agent Benchmark) المعروف باسم ALFRED، مع إضافة ست فئات من المخاطر الحقيقية في المطابخ. في حين تركز التقييمات الحالية على التعرف على المخاطر من خلال إطارات الأسئلة والأجوبة (QA)، فقد قمنا بإجراء تقييم لمدى قدرة أحد عشر نموذجًا من عائلات Qwen وGemma وGemini على التعرف على المخاطر وكذلك تنفيذ خطط نشطة للتخفيف منها.
كشفت نتائج التجارب عن فجوة ملحوظة بين القدرة على التعرف على المخاطر ونجاح التخفيف منها. بينما يمكن للنماذج التعرف بدقة على المخاطر في إعدادات الأسئلة والأجوبة، فإن معدلات النجاح في التخفيف من هذه المخاطر كانت منخفضة للغاية. هذه النتائج تشير إلى أن التقييمات الثابتة من خلال أسئلة وأجوبة غير كافية لضمان السلامة المادية، لذا ندعو إلى ضرورة الانتقال إلى معايير تركز على الاجراءات التصحيحية في السياقات الملموسة.
نحن فخورون بالإعلان عن فتح مصدر الكود ومجموعة البيانات الخاصة بنا عبر الرابط: [SafetyALFRED GitHub](https://github.com/sled-group/SafetyALFRED.git). هذا التقدم يمثل خطوة هامة نحو إعداد بيئات تفاعلية أكثر أمانًا ودقة في استخدام نماذج الذكاء الاصطناعي.
ما رأيكم في أهمية تقييم السلامة في نماذج الذكاء الاصطناعي؟ شاركونا آرائكم في التعليقات.
سلامة الذكاء الاصطناعي: تقييم خطط السلامة في نماذج اللغات متعددة الوسائط!
تم الكشف عن نموذج سلامة جديد يُدعى SafetyALFRED، الذي يقيم كيفية استجابة نماذج الذكاء الاصطناعي لمخاطر السلامة في البيئات التفاعلية. النتائج تشير إلى وجود فجوة كبيرة في القدرة على تخفيف المخاطر رغم إتقان نماذج التعرف عليها.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
