في قفزة نوعية نحو تحسين الأداء في مجال الذكاء الاصطناعي، أعلنت شركة سكّانة إيه آي (Sakana AI) بالتعاون مع إنفيديا (NVIDIA) عن طرح تقنية جديدة تحمل اسم TwELL، التي تعتمد على أنوية CUDA لتحسين سرعة الاستدلال والتدريب في نماذج اللغات الضخمة (Large Language Models).

تستند التقنية الجديدة إلى مفهوم بسيط ولكنه فعّال، وهو استخدام تنظيم L1 (L1 regularization) الذي يتيح تحقيق مستوى من التشتت (sparsity) يتجاوز 99% في طبقات التغذية الأمامية (feedforward layers)، مما يؤثر بشكل ضئيل جداً على الأداء النهائي للنموذج. يُعتبر هذا الإنجاز ثورة حقيقية في معالجة البيانات، حيث يُترجم هذا التشتت إلى مكاسب فعلية في أداء وحدات معالجة الرسوميات (GPUs) من خلال استخدام تنسيقات بيانات جديدة ومدمجة.

وفقًا للبيانات، حققت TwELL تسريعًا في الاستدلال بنسبة 20.5%، مما يمكّن المطورين من الحصول على استجابة أسرع عند التعامل مع أنظمة الذكاء الاصطناعي. وفيما يتعلق بالتدريب، تم تسجيل زيادة تصل إلى 21.9%، مما يُعد تقدمًا ملحوظًا في تقليل وقت التدريب بشكل يمكن من تطوير نماذج أكثر تعقيدًا بكفاءة أعلى.

تُعزز هذه التقنية الاستخدام العملي لنماذج الذكاء الاصطناعي، وتُعد خطوة هامة نحو تحقيق أهداف الابتكار في هذا المجال الحيوي. لذا، ينتظر العديد من المهتمين رؤية تأثير هذه التقنية على التطبيقات المستقبلية.

ما رأيكم في هذه التطورات المذهلة؟ وهل تعتقدون أن مثل هذه التقنيات ستغير قواعد اللعبة في مجالات الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات!