إن القدرة الفعالة على تمييز النصوص المكتوبة بواسطة البشر عن تلك المولدة بواسطة نماذج لغات كبيرة (Large Language Models) تعد من القضايا الحيوية في عصرنا الحالي. يعتمد الأسلوب السائد في معالجة هذه المشكلة على فرضية الاحتمالية، حيث يُفترض أن النصوص المولدة آليًا تظهر بمعدلات احتمالية أعلى للأنظمة الكاشفة مقارنةً بالنصوص البشرية.

ومع ذلك، يكشف بحث جديد عن أن الإشارة على مستوى الرموز التي تميز بين النصوص البشرية والنصوص الآلية غير متساوية عبر المساحة المخفية لنموذج الكاشف. العديد من الأنظمة الكاشفة تعتمد على متوسط ​​درجات الاحتمالية دون مراعاة الفروق الجوهرية في التركيب الإحصائي، مما يؤدي إلى ظهور معضلة سيمبسون (Simpson's Paradox)، حيث يتم تدمير الإشارة القوية المحلية من خلال التجميع غير المناسب.

في محاولة لتصحيح هذا الخلل، قدم الباحثون خطوة تعديل محلي تعتمد على نظرية القرار البايزية، حيث يتم أولاً تعلم نماذج خفيفة لضبط توزيع الدرجات بناءً على المواقع في المساحة المخفية، ومن ثم تجميع النسب المهيأة للاحتمالية بدلاً من الاعتماد على الدرجات الخام. هذه التدخلات الفردية تُحسن بشكل ملحوظ وموحد أداء الكشف عبر جميع أنظمة الكشف الأساسية والمجموعات البيانية المدروسة.

على سبيل المثال، تعزيز Fast-DetectGPT بعد التعديل الحي يحسّن مؤشر AUROC من 0.63 إلى 0.85 عند التعامل مع نصوص GPT-5.4. كما أن المُكشّف DMAP المُعدل محليًا الذي تم تقديمه يحقق أداءً يتصدر المجال.

الجدير بالذكر أن المساهمة المركزية ليست في تقديم كاشف جديد، بل في تشخيص دقيق لسبب أساسي مرتبط بقصور أداء الكاشفات الحالية وطرح حل مبدئي ومُعد خصيصًا يتماشى مع أي نظام يعتمد على متوسط الرموز.