في عالم الذكاء الاصطناعي، تقدم الشبكات العصبية المدببة (Spiking Neural Networks - SNNs) مزايا ملحوظة من حيث القابلية للتطبيق البيولوجي وكفاءة الطاقة، مما يجعلها خيارًا واعدًا لبناء محولات (Transformers) منخفضة الطاقة. ومع ذلك، فإن المحولات العصبية المدببة الحالية تتبع بدرجة كبيرة نموذجًا تفاعليًا سلبياً، مما يجعلها تواجه صعوبة في التركيز على المعلومات المهمة ويرفع من التكاليف الحاسوبية أثناء معالجة البيانات البصرية الزائدة.

لذلك، تم اقتراح تصميم SAFformer، وهو معمارية جديدة من المحولات العصبية المدببة تستند إلى نموذج تصفية تنبؤية نشطة. مستوحاة من آلية الترميز التنبؤي في الدماغ، تعمل SAFformer على كبح الإشارات المتوقعة وتوجيه التركيز نحو السمات البصرية المهمة.

تظهر التجارب الشاملة أن SAFformer تحقق أداءً متفوقًا جديدًا على مجموعات بيانات CIFAR-10/100 وCIFAR10-DVS. لافتاً للنظر، أنه في اختبار ImageNet-1K، تحقق SAFformer دقة تبلغ 80.50% مع استخدام 26.58 مليون معلمة واستهلاك طاقة يبلغ 5.88 مللي جول، مما يظهر توازنًا استثنائيًا بين الدقة والكفاءة.

مع استمرار البحث والتطوير في هذا المجال، يمكن أن يصبح SAFformer الخطوة التالية في تحسين تطبيقات الذكاء الاصطناعي في العديد من المجالات.