تشهد النماذج الذكية المتطورة تقدماً ملحوظاً، حيث تتجاوز حدود ما هو ممكن التعلم عبر تكاليف حسابية عالية. ومع ذلك، تفتح أساليب استخراج المعلومات (distillation) المجال أمام أطراف ثالثة معادية لاستغلال تلك النماذج المغلقة المصدر لتجاوز حواجز الأمان واستغلال قدراتها، مما يثير قضايا تتعلق بالسلامة، والأمن، وخصوصية الملكية الفكرية.

لكي نواجه هذه التحديات، يزداد الاهتمام بابتكار أساليب مضادة للاستخراج، تهدف إلى إضعاف أثر عمليات التفكير (reasoning traces) لتعطيل تعلم نماذج الطلاب فيما تظل كفاءة النموذج التعليمي (teacher model) قوية. لكن معظم التقنيات الحالية تفتقر إلى أساس نظري متين، مما يستلزم تقنيات ضربات قوية أو الوصول إلى نماذج الطلاب لهجمات مبنية على التدرجات، وغالباً ما تؤدي هذه الأساليب إلى تدهور كبير في أداء النموذج التعليمي.

في هذه الدراسة، نقدم صياغة نظرية للاستخراج المضاد كنوع من لعبة ستاكيليبرغ (Stackelberg game)، مسلطين الضوء على مشكلة لطالما تم تناولها بطريقة حدسية. وفقًا للخصائص التصميمية المرجوة التي تكشف عنها صياغتنا، نقترح استخدام تقنية exttt{TraceGuard}، وهي طريقة فعالة وغير مرتبطة بعدم التنبؤ، مصممة لتلويث الجمل ذات الأهمية العالية بالنسبة لتفكير النموذج التعليمي.

تقدم هذه الدراسة حلاً قابلاً للتوسع لمشاركة رؤى النماذج بشكل آمن، مما يضمن أن تقدم قدرات التفكير لا يأتي على حساب الخصوصية الفكرية أو توافق السلامة في الذكاء الاصطناعي.