أصبحت نماذج اللغة الضخمة (Large Language Models - LLMs) حجر الزاوية في العديد من التطبيقات، من محركات البحث إلى إنشاء النصوص وبرمجة الأكواد. ومع ذلك، يظل القلق بشأن التكلفة العالية للاستخدام في مقدمة النقاشات المتعلقة بالاستدامة والجدوى المالية لهذه النماذج.

في دراسة جديدة، تم إجراء تجارب للتعرف على كيف تؤثر خصائص التعليمات (prompts) والاستجابات الخاصة بها على تكاليف الطاقة المستخدمة أثناء عملية الاستدلال (inference). تم استخدام ثلاثة نماذج مفتوحة المصدر قائمة على التحويلات (transformers) عبر ثلاثة أنواع من المهام، وهي: الإجابة على الأسئلة، تحليل المشاعر، وإنشاء النصوص.

تظهر النتائج أن النماذج، حتى عندما تتعامل مع مهام متطابقة، تولّد ردود فعل بخصائص مختلفة، مما يؤدي إلى أنماط استهلاك طاقة متباينة. وقد أظهر البحث أن طول التعليمات ليس بنفس أهمية المعنى الدلالي للمهام الموكلة.

بالإضافة إلى ذلك، تم تحديد كلمات رئيسية معينة ترتبط بزيادة أو نقص في استهلاك الطاقة، والتي تختلف بين المهام المتعلقة بها. ويبرز هذا الاكتشاف أهمية تصميم التعليمات لتحسين كفاءة الاستدلال.

في الختام، تُبرز هذه النتائج كيف أن المعنى الدلالي للتعليمات وبعض الكلمات المفتاحية المرتبطة بالمهام يمكن أن تؤثر بشكل كبير على تكاليف الاستدلال، مما يمهد الطريق لاستكشاف أعمق نحو إنشاء نماذج لغة قابلة للتكيف مع الطاقة.