في عالم الذكاء الاصطناعي، تعتبر Vision Transformers (ViTs) من أبرز التقنيات المستخدمة في معالجة الصور وتحليل الفيديو. ومع ذلك، لا يزال تنفيذها مع خوارزميات الانسحاب المبكر (early exiting) بتقنية منخفضة الدقة يواجه تحديات كبيرة. السبب يعود إلى أن الطرق الحالية للتقليص (quantization) تفترض تنفيذًا ثابتًا لكامل العمق، مما يجعلها غير مستقرة عندما تتأثر قرارات الخروج بالضوضاء الناتجة عن التقليص، وهذا يمكن أن يزيد من الأخطاء في مسارات الاستدلال الديناميكية.

في هذا السياق، تم تقديم تقنية جديدة تُعرف باسم Quantization المتكيف (Amortized-Precision Quantization - APQ)، التي تأخذ بعين الاعتبار التعرض العشوائي للضوضاء عبر طبقات متعددة وتكشفت كل من التبادلات بين العمق والدقة. تعتمد هذه التقنية الجديدة على الصيغة الواعية للاستخدام، مما يؤسس أساسًا صلبًا للتحسين.

بالإضافة إلى ذلك، تم اقتراح إطار عمل جديد يُسمى Mutual Adaptive Quantization مع الانسحاب المبكر (Mutual Adaptive Quantization with Early Exiting - MAQEE)، والذي يقوم بتحسين الحدود الخاصة بالخروج وأبعاد البت (bit-widths) بشكل مشترك، تحت السيطرة على المخاطر بشكل محدد، ليضمن استقرار أكبر في الاستدلال.

النتائج مثيرة للإعجاب، حيث يحقق MAQEE حدود Pareto متفوقة في التوازن بين الدقة والكفاءة، مما يقلل من أداء العوامل العملياتية (BOPs) بنسبة تصل إلى 95%، مع الحفاظ على مستوى عالٍ من الدقة والتفوق على المعايير المعتمدة بنسبة تصل إلى 20% في مهام التصنيف والكشف والتجزئة.