في عالم الذكاء الاصطناعي، يُعتبر ظهور وكالات نماذج اللغات الضخمة (LLM) تحولاً جذرياً في كيفية تعاملنا مع المعلومات. ومع تزايد استخدام هذه الوكالات لتصفح الإنترنت نيابة عن المستخدمين، يُطرح تساؤل مهم: هل يمكن للمواقع الإلكترونية التعرف بشكل غير مباشر على النموذج الأساسي الذي يشغل هذه الوكالات؟
تُظهر الأبحاث الحديثة أن ذلك ممكن، إذ يمكن للمواقع تحديد الوكالات بفعالية عبر تتبع أعمالها وتوقيت تفاعلاتها باستخدام متعقبات جافا سكريبت (JavaScript) بشكل سلبي. في سياق تجريبي، تم اختبار 14 نموذجاً متقدماً من LLM في أربع بيئات ويب مختلفة تتضمن استرجاع المعلومات ومتاجر التسوق. أظهرت النتائج أن توقيتات وتفاعلات الوكلاء كافية لتحديد النموذج بنسبة تصل إلى 96%!
تمكنت الدراسة من توضيح هذا السطح الهجومي، حيث أظهرت أن نماذج التصنيف المدربة على أفعال الوكالات يمكن أن تتعمم عبر أحجام ونوعيات مختلفة من النماذج. بالإضافة إلى ذلك، يمكن تدريب مصنفات قوية باستخدام عدد قليل من آثار التفاعل، كما أنه يمكن استنتاج هوية الوكيل مبكراً خلال الحلقة التفاعلية.
ومع ذلك، injecting timing delays العشوائية بين الأفعال يقلل بشكل كبير من أداء المصنف، لكنها ليست حماية فعالة بالكامل، إذ إستطاع المصنف استعادة الأداء عند إعادة تدريبه على الآثار المتأخرة.
للاستزادة، تم إصدار الأدوات الخاصة بالدراسة ومجموعة بيانات مُعلمة تتضمن آثار الوكلاء، مما يشير إلى أهمية البحث والمراقبة في مجال الأمان الرقمي.
ما رأيكم في هذه الخطوات الجديدة في عالم الذكاء الاصطناعي؟ شاركونا أفكاركم في التعليقات!
عرفهم من أفعالهم: كيفية التعرف على وكلاء نماذج اللغات الضخمة عبر تتبع التفاعل!
تظهر أبحاث جديدة أن المواقع الإلكترونية يمكن أن تتعرف على نماذج الذكاء الاصطناعي التي تعمل كعملاء عبر تتبع سلوكها على الإنترنت. هذا الكشف يفتح أبواباً للنقاش حول الأمان والخصوصية الرقمية.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
