الذكاء الاصطناعي المتجسد (Embodied AI) يمثل حقبة جديدة في عالم التكنولوجيا، حيث يدمج إدراك البيئة، والإدراك، والتخطيط، والتفاعل في وكلاء يعملون في بيئات حرجة. ومع تزايد اعتماد هذه الأنظمة في مجالات مثل النقل والرعاية الصحية والروبوتات الصناعية، تصبح سلامتها تحديًا فنيًا واجتماعيًا ضروريًا.
بخلاف أنظمة الذكاء الاصطناعي الرقمية، يتعين على الوكلاء المتجسدين العمل تحت ظروف حسية غير مؤكدة ومعرفة غير كاملة، مما يجعل الأخطاء تؤدي إلى أضرار جسدية مباشرة. تمثل هذه الدراسة استعراضًا شاملًا لأبحاث السلامة في الذكاء الاصطناعي المتجسد، حيث تستعرض الاعتداءات والدفاعات عبر كافة مراحل الذكاء الاصطناعي، بدءًا من الإدراك إلى التخطيط والتفاعل.
تُقدِّم الدراسة تصنيفًا متعدد المستويات يدمج بين الخطوط البحثية المنفصلة ويربط بين نتائج السلامة في الذكاء الاصطناعي المتجسد والتطورات الأوسع في نماذج الرؤية واللغة. كما تستند إلى أكثر من 400 ورقة بحثية تتناول أنواع متعددة من الهجمات مثل الهجمات الخبيثة، وهجمات الباب الخلفي، وهجمات القفز، والهجمات على مستوى الأجهزة، إلى جانب الكشف عن الهجمات والتدريب الآمن والاستدلال القوي.
تُسلط الدراسة الضوء على عدة تحديات مغفلة، مثل هشاشة دمج الإدراك المتعدد الوسائط، وعدم استقرار التخطيط تحت هجمات القفز، وموثوقية التفاعل بين الإنسان والوكيل في السيناريوهات المفتوحة. من خلال تنظيم مجال البحوث في إطار متماسك وتحديد الثغرات البحثية الحيوية، تقدم هذه الدراسة خارطة طريق لبناء وكلاء متجسدين قادرين ومستقلين وآمنين وموثوقين في الاستخدام الواقعي.
سلامة الذكاء الاصطناعي المتجسد: استكشاف المخاطر والتحديات الأمنية
تتطلب أنظمة الذكاء الاصطناعي المتجسد (Embodied AI) التفاعل الآمن في بيئات مليئة بالمخاطر. تعرف على التحديات والتهديدات والحلول اللازمة لضمان سلامة هذه الأنظمة المتطورة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
