في عالم الذكاء الاصطناعي، فتحت نماذج اللغة الكبيرة (Large Language Models) آفاقًا جديدة من الابتكار، ولكنها تواجه تحديًا كبيرًا في متطلبات الحوسبة التي غالبًا ما تكون باهظة الثمن وغير متاحة للجميع. إذ إن الاعتماد على وحدات معالجة الرسوميات المتطورة (GPUs) ضمن مراكز البيانات أو الوصول إلى واجهات برمجة التطبيقات السحابية (Cloud APIs) يجعل ملايين الحواسيب الشخصية غير مستغلة في مجال الذكاء الاصطناعي، مما أدى إلى استمرار أكثر من مليار كمبيوتر شخصي في حالة من الخمول.

وفي هذا الإطار، تأتي الشبكات العصبية الثلاثية كنموذج واعد، حيث تقتصر الأوزان على القيم {-1, 0, +1}، مما يقلل من الحاجة إلى عمليات الضرب العائم ويفتح الطريق للحصول على أداء أعلى. ورغم ذلك، فإن معظم الأطر الحالية تفشل في الاستفادة من هذه الهيكلية، حيث تعتبر هذه النماذج كثيفة كثيفًا مثل الشبكات العصبية التقليدية.

لذا، قامت مجموعة من الباحثين بتطوير أساليب جديدة باستخدام نوى SIMD (Single Instruction, Multiple Data) مخصصة، والتي تستبدل عمليات ضرب المصفوفات بعمليات بسيطة مثل الجمع والطرح، مستهدفة تعليمات الناتج النقطي العددي المتاحة على وحدات المعالجة المركزية الحديثة.

يسعدنا أن نقدم لكم تقنيتنا الجديدة، ليتسبرك-إنفرنس (Litespark-Inference)، التي يمكن تثبيتها عبر الأمر pip، وتتكامل بسلاسة مع منصة Hugging-Face. وبهذا الابتكار، حققنا زيادة تصل إلى 9.2 مرة في سرعة التفاعل الأول، و52 ضعفًا في معدل الإنتاج، بالإضافة إلى انخفاض مذهل في استخدام الذاكرة وصل إلى 14 ضعفًا مقارنةً بنموذج PyTorch التقليدي على أجهزة Apple Silicon، مع تحقيق تحسينات مماثلة على معالجات Intel وAMD.

إذا كنت تبحث عن وسيلة لتحسين أداء الذكاء الاصطناعي على جهاز الكمبيوتر الخاص بك، فإن تقنيات ليتسبرك تعتبر خيارًا مثاليًا لمساعدتك في تحقيق ذلك. هل تعتقد أن هذا الابتكار سيساهم في تغيير طريقة تعاملنا مع الذكاء الاصطناعي؟ شاركونا آراءكم في التعليقات.