تتطلب التطبيقات العلمية المتقدمة التي تعمل في الحافة القصوى (Extreme-Edge) قدرة على معالجة بيانات الحساسات بسرعة وفعالية، مما يحتم عليها استخدام نماذج التعلم الآلي (Machine Learning Models) لاتخاذ قرارات فورية. ولكن، هناك تحديات كبيرة تتعلق بمتطلبات التأخير (Latency) وسرعة النقل (Throughput)، مما يستدعي مهارات متقدمة لتحقيق أحجام دفعات صغيرة (Small Batch Sizes) مع الحفاظ على أوزان النماذج داخل الرقاقة (On-chip).

وبالرغم من أن تنفيذات تدفق البيانات المكانية (Spatial Dataflow) شائعة في التطبيقات العلمية على الحافة القصوى، إلا أن هذه الأساليب تعاني من عدم القدرة على التوسع (Scaling) عند استخدام نماذج أكبر بسبب القيود الكامنة في الموارد. لكن الهواتف المتطورة الحديثة التي تحتوي على وحدات معالجة الذكاء الاصطناعي (AI Engines) في أنظمة الرقاقات القابلة للبرمجة (FPGA SoCs) قد توفر بديلاً واعداً بفضل كثافتها العالية في معالجة البيانات وذاكرة إضافية على الشريحة.

لكن، يظل التساؤل المطروح هو كيف ومتى ينبغي تنفيذ الشبكات العصبية العلمية المتطرفة على محركات الذكاء الاصطناعي بدلاً من استخدام المنطق القابل للبرمجة؟ الباحثون يقدمون إجابات عبر دراسة دقيقة للإعدادات المعمارية (Architectural Characterization) وتجارب الاختبار الدقيقة (Micro-benchmarking)، ويعرضون مقياسًا جديدًا يسمى مقياس التكافؤ المقتصد للتأخير (LARE) الذي يساعد في تحديد الأوقات التي تفوق فيها تنفيذات محركات الذكاء الاصطناعي تصميمات المنطق القابل للبرمجة.

علاوة على ذلك، يتم اقتراح تحسينات في تدفق البيانات على مستوى المكونات البرمجية (API-Level) مخصصة لاستنتاجات العلوم العلمية التي تتطلب وقتاً منخفضاً. وتمت أيضًا تجربة نشر شبكات عصبية كاملة تعمل بنجاح على محركات الذكاء الاصطناعي التي لا يمكن أن تنجح عبر المنطق القابل للبرمجة باستخدام مجموعة أدوات hlsml، مما يفتح أفقًا جديدًا أمام الأبحاث المستقبلية في هذا المجال.