في عالم الذكاء الاصطناعي، تواجه نماذج اللغات الضخمة (Large Language Models) تحديًا كبيرًا في مواءمة طرق معالجة المعلومات مع توقعات الخصوصية الخاصة بالمستخدمين. في هذا الإطار، يظهر مفهوم التكامل السياقي (Contextual Integrity) كإطار مفاهيمي لحماية الخصوصية، إذ يعبر عن تدفق المعلومات المناسب وفقاً للأعراف السياقية.

من الواضح أن الأساليب الحالية إما تزيد من تكلفة الاستدلال عبر استخدام هياكل المساعد-المشرف، أو تعتمد على بيانات ضيقة ومحددة المهام. لذلك، اقترح الباحثون استخراج تمثيلات معيارية (Normative Simulacra) من الروايات الأدبية، واستخدامها في تحسين أداء نماذج اللغات من خلال التعلم الخاضع للإشراف يليه التعلم المعزز باستخدام GRPO.

يتم بناء وظيفة المكافأة المركبة على إشارات برمجية، بما في ذلك وضوح المهام، والكمال الهيكلي، والتناسق الداخلي، وتحديد السياق، بالإضافة إلى تقييم من نموذج LLM حول ما إذا كانت استدلالات الخصوصية تعتمد على عالم المعايير المستخلص من النص المصدر. بالإضافة إلى ذلك، تم تقديم تقييم متباين لكل استكمال، حيث يتم تقييم كل استكمال ضد كل من العالم المعياري الصحيح وآخر خاطئ يتم اختياره عشوائياً، مما يعلم النموذج التركيز على السياق بدلاً من حفظ المعايير الخاصة بالمصدر.

من خلال تقييم النماذج على خمسة معايير تتعلق بالتكامل السياقي، أظهرت النتائج أن استخدام التعلم المعزز مع التأسيس المعياري أظهر تحسناً في التعرف على الحالات المتعلقة بالخصوصية، بالإضافة إلى تحقيق أعلى الدرجات في معايير الامتثال القانوني وأقوى ارتباط بالتوقعات البشرية حول الخصوصية.

يمكن أن تكون الروايات الأدبية أدوات قوية لتعزيز استدلال الخصوصية السياقية في النماذج، مما يسهم في تأهيلها لفهم هذ القضية الحيوية في العالم الحقيقي.