في عالم الذكاء الاصطناعي المليء بالتطورات السريعة، تتطلب التطبيقات المتعددة للمهام نهجًا محسنًا وفعالًا. تقنيتنا الجديدة، المعروفة باسم P-EML (تعلم متعدد المهام بكفاءة مع معلمات محسّنة)، تأتي لتلبية هذا الطلب المتزايد. تعتمد هذه التقنية على مفهوم التكيف الفعّال مع نماذج اللغة الكبيرة (LLMs)، مما يتيح معالجة عدة مهام دون الحاجة إلى نماذج فردية لكل مهمة.

يعتبر التكيف بتحسين المعلمات (PEFT) طريقة شائعة لضبط نماذج اللغة الكبيرة للمهام المختلفة، لكن تزايد الحاجة لنموذج واحد لأداء مهام متعددة يعود إلى بعض المزايا الرئيسية. إذ يتطلب تقليل البيانات المستخدمة للتكيف بفضل الخصائص المشتركة بين المهام، مما يؤدي إلى تقليل استهلاك الموارد.

تستند معظم الطرق الحالية مثل LoRA وPrefix Tuning إلى ضبط النماذج لتناسب مهمات معينة، ولكنها تفتقر إلى الفعالية في توليد المنبهات في بيئة التعلم متعدد المهام. بينما تركز P-EML على تحسين المنبهات (prompts) مع إجراء تعديلات منخفضة الرتبة على أوزان النموذج، مما يزيد من القدرة على التكيف مع المهام المتعددة.

قمنا بتطوير إطار عمل آلي يعمل على معايير تحسين المنبهات وتكيف الأوزان، ونجحنا في اختبار P-EML ضد أحدث طرق التعلم متعدد المهام مثل MTL-LoRA وMultiLoRa وC-Poly وMoE، حيث أظهرت النتائج تحسنًا ملحوظًا في الدقة بمعدل يصل إلى 6.67%، مع تحقيق ذروة تصل إلى 10.75% في بعض المهام.

تُعد هذه التطورات خطوة كبيرة نحو تحسين الأداء والكفاءة في استخدام موارد الذكاء الاصطناعي، مما يسهل تطبيقاته في مختلف المجالات. ما هي رؤيتكم لمثل هذه الابتكارات؟ شاركونا آراءكم في التعليقات!