في عصر الذكاء الاصطناعي، تعتمد نماذج اللغة (Language Models) على ضبط دقيق لمنع تسرب المعلومات الحساسة. لكن ماذا يحدث عندما تُعطى هذه النماذج تعليمات صارمة بعدم كشف معلومات معينة؟
أجرى الباحثون دراسة جديدة لكشف كيفية تعامل نماذج اللغة مع هذا التحدي. حيث تم تكليف كل نموذج بكلمة سر معينة مع تعليمات بحفظها سراً، وفي خطوة مثيرة، طُلب منهم كتابة قصة. هذا الجزء يشكل نقطة انطلاق لاختبار قدرة النموذج على الحفاظ على السرية، وخصوصاً في السيناريوهات التي تتطلب عدم الإفصاح عن المعلومات.
لاحقاً، تم توجيه نموذج آخر لمحاولة تحديد الكلمة السر من القصة في اختبار تمييز ثنائي. ورغم أن الكلمة السرية لم تظهر بشكل حرفي في أي من النصوص، فإن جميع النماذج الخمسة الحديثة التي تم اختبارها كشفت عن تسرب معلوماتي من خلال اختيار الموضوعات والصور والإعدادات، بمعدل تسرب يصل إلى 79%.
عندما تم توجيه النماذج إلى فكرة إخفاء السر بل وإبعاده، لوحظ أن نماذج الكتابة تميل إلى كتابة محتوى بعيد عن السر، وهو أمر يبدو أنه يمكن اكتشافه. تزداد مستويات التسرب بشكل ملحوظ مع زيادة حجم النموذج، بينما لا يحدث هذا التسرب في صياغات الكتابة القصيرة مثل النكات.
يمكن أن يؤدي توجيه النموذج للتركيز على مفهوم زائف إلى تحويل التوجه من السر الحقيقي إلى ما يُعتبر فخًا للمعلومات. مما يدل على أن الانتباه إلى سر معين يفتح قناة معلوماتية تُعتبر خطيرة على خصوصية البيانات. في النهاية، يبدو أن النماذج الحديثة من هذه الأنواع لا تستطيع غلق هذه القنوات، حتى بوجود تعليمات مشددة بعدم الكشف.
هل يمكنك الحفاظ على السر؟ تسرب المعلومات في كتابة نماذج اللغة
تظهر الدراسات أن نماذج اللغة (Language Models) قد تفشل في الحفاظ على سرية المعلومات المدخلة، حيث تتسرب المواضيع والأفكار عند كتابة النصوص. يكشف البحث عن كيفية تأثير حجم النموذج على درجات التسرب المعلوماتي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
