في عالم الذكاء الاصطناعي، يعتمد أداء الشبكات العصبية العميقة بشكل كبير على تصميم الدوال التفعيل غير الخطية. ولكن، تواجه الطرق الحالية تحديات؛ فبينما توفر الدوال الخطية المجزأة (piecewise linear functions) سرعة في الاستدلال، تعاني من عدم الاستقرار خلال عملية التحسين بسبب عدم قابليتها للاشتقاق عند نقطة الأصل. ومن ناحية أخرى، تأتي الدوال السلسة (smooth functions) مع تكاليف حسابية مرتفعة نتيجة استخدامها للعمليات المتعالية (transcendental operations).

لكي نعالج هذه القيود، تقدمت ورقة بحثية جديدة بإطار عام للتمويه (smoothing framework) بناءً على نظرية التقريب الإنشائي (constructive approximation theory). وتقدم هذه الورقة دالة جديدة تُدعى دالة برنشتاين الخطية (Bernstein Linear Unit - BerLU). تستخدم هذه الدالة متعدداً برنشتاين لإنشاء منطقة انتقال مربعة قابلة للاشتقاق، مما يقضي على الأشكال الفردية ويحتفظ في ذات الوقت بالبنية الخطية المجزأة.

توفر التحليلات النظرية على أن الطريقة المقترحة تضمن اشتقاقًا مستمرًا صارمًا وثابت لليبشيتز غير متزايد، مما يضمن نقلًا مستقرًا للتدرجات (gradient propagation) ويحول دون مشاكل انفجار التدرج الشائعة في الشبكات العميقة.

تم إجراء تقييمات شاملة على مجموعة من الشبكات مثل Vision Transformer وConvolutional Neural Network، حيث أظهرت هذه الطريقة تفوقاً مستمراً على المعايير المتقدمة في تصنيف الصور، بجانب تحسين الكفاءة الحسابية والذاكرة.