منذ الإصدار الرسمي لنموذج التشات الآلي ChatGPT في عام 2022، شهدت نماذج اللغات الضخمة (Large Language Models) تطورًا سريعًا من واجهات المحادثة إلى أنظمة قادرة على تفويض الأعمال من خلال أدوات ونماذج فرعية حديثة. على الرغم من أن هذه الإمكانيات تعزز الأتمتة وقابلية التوسع، إلا أنها تحمل أيضًا مخاطر أمنية جديدة في الشبكات متعددة الوكلاء.
لقد درست الأبحاث السابقة كيفية تعرض وكلاء مستقلين يعتمدون على نماذج اللغات الضخمة للاختراق من خلال حقن الإيعازات، والتجاوزات، وبيانات الاسترجاع المسمومة، أو الإضافات الخبيثة. ومع ذلك، يبقى الغموض بشأن ما يحدث بعد أن يتعرض أحد الوكلاء للاختراق ضمن شبكة متعددة الوكلاء.
تُظهر هذه البحث أن الذاكرة الموروثة من الوكلاء الرئيسيين يمكن أن تحمل تعليمات خبيثة، أو حالات قديمة، أو قواعد سلوكية غير متوقعة إلى النماذج الفرعية التي تم إنشاؤها، مما يسمح للاختراق المحلي بالانتشار عبر الحدود. وقد قدم الباحثون نموذجًا شبكيًا معاصرًا من خلال عدسة وراثة الوكلاء الفرعيين، مؤكدين أن الأطر الحالية قد تنتهك حدود الثقة من خلال وراثة ذاكرة غير آمنة، وتحكم ضعيف في الموارد، وأوضاع ما بعد الإنشاء غير المحدثة، وسلطة إنهاء غير صحيحة.
من خلال تطبيق هذه المخاطر على أطر العمل الحقيقية، اقترحوا دفاعات تعتمد على الثوابت الأمنية الواضحة. تظهر نتائجهم أن وراثة التعليمات ليست مجرد تفاصيل في التنفيذ، بل هي عنصر مركزي يؤثر على أمان أنظمة الوكلاء المتعددة.
وراثة الآلة: كيف تؤثر النماذج الفرعية على أمان الشبكات متعددة الوكلاء؟
تستكشف الدراسة الجديدة كيف يمكن أن تؤدي وراثة التعليمات الضارة في الشبكات متعددة الوكلاء إلى تهديدات أمنية خطيرة. تعرف على كيفية حماية أنظمتك من هذه الممارسات غير الآمنة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
