تشهد التكنولوجيا تقدمًا سريعًا في مجال الذكاء الاصطناعي، خاصةً في كيفية تعامل الروبوتات مع العمليات المعقدة في الزمن الحقيقي. لقد أظهرت دراسة جديدة أن استخدام نماذج اللغة الضخمة (Large Language Models - LLMs) بكفاءة يعتبر تحديًا حقيقيًا، حيث تواجه هذه النماذج مشكلة الوقت اللازم للحصول على أول رمز (TTFT latency) عند معالجة تاريخ الحالة الواسع.

لقد تم تطوير حلول سابقة، مثل RAG أو نوافذ التمرير، غير أنها غالبًا ما تضعف من السياق العالمي أو تفرض تكاليف حسابية باهظة. ومن هنا، جاءت الدراسة لإعادة صياغة الهيكل الأمثل للمهمة لتقليل زمن الاستجابة، حيث تم إثبات أهمية استقرار اللاحقة، وقابلية التمديد التدريجي، والتوفيق غير المتزامن للحالات.

بناءً على هذه المبادئ، تم تقديم إطار تمثيل الحالة المؤقتة (CSR) كتنفيذ عملي يضمن إعادة استخدام فعالة لذاكرة التخزين المؤقت (KV-cache). لزيادة كفاءة هذا الإطار عبر المدى اللامتناهي، تم اقتراح خوارزمية التوفيق غير المتزامن للحالة (ASR) التي تعمل على نقل عملية إخلاء الذاكرة إلى موارد حسابية متوازية، وبالتالي القضاء على أي ارتفاعات مفاجئة في زمن الاستجابة.

تجارب على روبوت مادي متصل لاسلكيًا بخادم GPU محلي أظهرت أن تقنية CSR حققت تقليصًا للزمن بمقدار 26 مرة (من 14.67 ثانية إلى 0.56 ثانية) عند التعامل مع سياقات تحتوي على 120 ألف رمز، مما يعد إنجازًا رائعًا عند استخدام نموذج يحتوي على 235 مليار معلمة.

في اختبارات الذكاء الاصطناعي المدمجة، حققت الدراسة نتائج بحث متقدمة (SOTA) مع دقة استرجاع تلامس 0.836 مقارنةً بـ 0.459 مع الحفاظ على زمن استجابة مشابه لمستوى RAG. تم التحقق أيضًا من قدرة ASR على الحفاظ على زمن استجابة ثابت دون ارتفاعات لمدة عشر دورات إخلاء في عمليات العالم الحقيقي المستمرة، مما يسمح للنماذج الضخمة للعمل كسياسات ذات تردد عالٍ (> 2 هرتز).

إن دمج تقنيتي CSR وASR يعد خطوة عملاقة نحو جعل الذكاء الاصطناعي يعمل في الروبوتات بشكل مستمر وفعال، مما يفتح آفاق جديدة للابتكار في هذا المجال!