في عالم الذكاء الاصطناعي (AI)، تُعتبر نماذج اللغة الكبيرة (Large Language Models - LLMs) إحدى التطورات التكنولوجية الرائدة التي تُستخدم على نطاق واسع في العديد من التطبيقات الواقعية. ومع هذا، يعتبر ضبط هذه النماذج أمرًا مكلفًا من الناحيتين الحسابية والتخزينية. لذا، ظهرت طرق الضبط ذات الكفاءة العالية في المعاملات (Parameter-Efficient Fine-Tuning - PEFT) مثل LoRA، التي تهدف لتقليل هذه التكاليف.

لكن تتواجه هذه الطريقة صعوبات؛ حيث تعتمد المتغيرات المعدلة على النموذج الأساسي ولا يمكن نقلها عبر هيكليات مختلفة. هنا يظهر الدور الجديد لنموذج TiTok.

تعمل TiTok على تقديم حل مبتكر لمشكلة نقل المعرفة، من خلال ما تُعرف بنقل المعرفة على مستوى الرموز (Token-level knowledge transfer). تعتمد الطريقة على استخدام الفائض المتباين بين نموذج المصدر المزود بـ LoRA وغير المزود بها، مما يسهم في تسليط الضوء على الرموز الأكثر أهمية وتمكين عملية فرز بيانات مصطنعة بشكل انتقائي، دون الحاجة إلى نماذج إضافية.

أظهرت التجارب التي أجريت على ثلاث معايير مختلفة في إعدادات نقل متعددة أن TiTok حققت نتائج مذهلة، حيث زادت الأداء بنسب تتراوح بين 4% إلى 10% مقارنةً بالنماذج التقليدية. يعد هذا إنجازًا كبيرًا في مجال الذكاء الاصطناعي، حيث يشير إلى إمكانية تحسين الأداء بكفاءة وفعالية دون الحاجة إلى تكاليف إضافية أو تعقيد.

بهذا، تواصل الصيغة الجديدة لتي توك دفع حدود ما يمكن تحقيقه باستخدام الذكاء الاصطناعي وتحسين تجربتنا في العمل مع البيانات والنماذج. ما رأيكم في هذا التطور؟ هل تعتقدون أن هذه الطريقة ستحدث تغييرًا كبيرًا في مستقبل الذكاء الاصطناعي؟ شاركونا في التعليقات.