في الوقت الذي تتصدر فيه نماذج Transformers القائمة في معالجة النصوص وتحقيق الدقة المطلوبة، لا يزال نموذج الانتشار (Diffusion Models) يعاني من تأخر نسبي في الأداء، خاصة في المجالات المرتبطة بتصحيح اللغة واستعادة الرموز. في بحث جديد تم نشره على arXiv، تم اقتراح نموذج مبتكر يُدعى DiHAL، والذي يمثل تقاطعاً جديداً بين نماذج الانتشار و Transformers.

ما يميز نموذج DiHAL هو أنه يسعى للإجابة على سؤال محوري: أين يجب أن يتم إدخال الانتشار في نموذج Transformer مدرب مسبقاً؟ يعتمد DiHAL على تقييم الطبقات باستخدام معايير هندسية، مما يسمح باختيار واجهة مناسبة لإدخال الانتشار، واستبدال واجهة النموذج الأسفل بجسر انتشاري بينما يتم الاحتفاظ بالطبقات العليا ورأس النموذج الأصلي.

من خلال إعادة بناء حالة الطبقة المختارة بدلاً من الرموز، يتجنب DiHAL مشكلة الاستعادة المباشرة من الاستمرارية إلى التقطيع. أظهرت التجارب التي أجريت على نماذج ضخمة بمقياس 8 مليار أن توزيع النقاط الهندسية يتنبأ بالطبقات الفعالة التي يمكن إجراء الإدخالات الضحلة فيها تحت بروتوكول تدريبي ثابت.

علاوة على ذلك، أظهرت نتائج الاختبارات التحليلية أن استعادة الحالة المخفية تحسن بشكل ملحوظ عن نماذج الانتشار التقليدية، مما يشير إلى أن هندسة الحالة المخفية تلعب دوراً رئيسياً في تحديد الأماكن المناسبة لإجراء الاستبدالات التي تعتمد على الانتشار في نماذج اللغة المدربة مسبقاً.

بلا شك، يمثل هذا التطور خطوة جديدة ومثيرة نحو تحسين الأداء العام للأنظمة اللغوية، وقد تفتح الأبواب للكثير من الابتكارات المستقبلية في مجال الذكاء الاصطناعي. ما رأيكم في هذا التطور؟ شاركونا في التعليقات.