مع تزايد استخدام نماذج اللغة الكبرى (LLMs) في التطبيقات العملية، تبرز قضية هامة تتعلق بإمكانية تسرب المعلومات من المتواجدين غير المقصودين في المحيط. تمثل هذه القضايا تهديدًا لخصوصية الأفراد، الأمر الذي لم يكن موضوعًا في الاعتبارات السابقة.

في هذا السياق، يظهر معيار SH-Bench، المعيار الأول من نوعه الذي تم تطويره لتقييم السمع الانتقائي. يتيح هذا المعيار للنماذج تقييم قدرتها على التركيز على المتحدث الرئيسي مع تجاهل أو عدم معالجة أي معلومات تأتي من المتواجدين العابرين. يتضمن SH-Bench ما يقرب من 3968 مزيجًا صوتيًا متعددة المتحدثين، تغطي سيناريوهات واقعية وصناعية، مصحوبة بـ 77 ألف سؤال متعدد الخيارات لفحص أداء النماذج.

تم إدخال مقياس جديد يسمى فعالية السمع الانتقائي (Selective Efficacy SE) الذي يقيس بشكل شامل كل من فهم المتحدثين المتعددين وحماية خصوصية المتواجدين العابرين.

من خلال تقييم النماذج الرائدة سواء مفتوحة المصدر أو الخاصة، تم الكشف عن تسرب كبير لمعلومات المتواجدين العابرين، حيث إن الفهم الجيد للأصوات لم يكن له انعكاس مثالي على حماية خصوصية المتواجدين.

لذلك، تم تقديم عملية تدريب جديدة تُعرف بتعديل الخصوصية للمتواجدين (Bystander Privacy Fine-Tuning BPFT) التي تهدف إلى تعليم النماذج كيفية رفض الاستفسارات المتعلقة بالمتواجدين بدون التأثير على فهم المتحدث الرئيسي. تُظهر النتائج أن BPFT تحقق تحسينًا ملحوظًا يصل إلى 47% في دقة التعامل مع المتواجدين في الوضع الانتقائي، بالإضافة إلى زيادة بنسبة 16% في فعالية السمع الانتقائي مقارنة مع نموذج Gemini 2.5 Pro.

بفضل ما يقدمه SH-Bench وBPFT، نحصل على إطار عمل شامل يقيس ويعزز حماية خصوصية الأفراد في نماذج اللغة الكبرى الصوتية، مما يجعل الخطوة التالية نحو الذكاء الاصطناعي أكثر أمانًا ووعيًا.