يعتبر الذكاء الاصطناعي أحد أكثر المجالات تقدمًا في عصرنا الحديث، ولا شك أن نماذج اللغات الضخمة (Large Language Models - LLMs) قد أحدثت ثورة في كيفية التعامل مع أنظمة التوصيات (Recommendation Systems - RSs). ومع تزايد استخدام LLMs، بدأت البحوث في التركيز على كيفية دمج هذه النماذج في أنظمة التوصيات الصناعية.

ومع ذلك، فإن التحديات تظهر نتيجة للاستخدام المتزايد لتقنيات الذكاء الاصطناعي، حيث أن التمثيلات ذات الأبعاد العالية التي تولدها LLMs تحمل تكاليف تخزين وحوسبة كبيرة. بالتالي، فإن ضغط هذه التمثيلات بشكل فعال يعد أمرًا ضروريًا لتحقيق الكفاءة.

مؤخراً، تم اكتشاف ظاهرة غير متوقعة خلال عملية ضغط التمثيل، وهو ما يعرف بميزة التمثيل في الطبقات الوسطى (Mid-layer Representation Advantage - MRA). حيث أظهرت الأبحاث أن التمثيلات من الطبقات الوسطى في LLMs تتفوق على تلك التي تأتي من الطبقات النهائية في مهام التوصية، مما يجعل الطرق الحالية لاستخدام ضغط التمثيل أقل فاعلية.

تُفسر هذه الظاهرة بواسطة نظرية الوحدات الوظيفية (modularity theory)، حيث تتطور LLMs تلقائيًا إلى وحدات وظيفية داخلية، مما يفرض على الطبقة النهائية التخصص في مهام تدريب معينة.

لذا تم اقتراح تقنية جديدة تسمى ضغط التمثيل المودولي (Modular Representation Compression - MARC) التي تهدف إلى التحكم بشكل واضح في بنية LLMs.

تتضمن MARC إدخال وحدات ضغط وتكيف واضحة، مما يوفر مرونة أكبر لأنظمة التوصيات في كل مهمة. كما تستخدم تقنيات فك ارتباط المهام للمحافظة على جودة التمثيلات المقدمة، وهو ما تم التحقق من فعاليته من خلال تجارب مكثفة.

نتيجة لذلك، حققت MARC زيادة بنسبة 2.82% في الأداء خلال تجربة A/B عبر اختبار تجريبي واسع في سياق الإعلانات التجارية، مما يظهر أهمية هذه الطريقة المعاصرة ونجاحها في مواجهة التحديات الحالية.