في عالم الذكاء الاصطناعي، تبرز نماذج اللغات الكبيرة (Large Language Models) كأحد أهم العوامل التي تؤثر على تطور التكنولوجيا. ومع تزايد استخدام هذه النماذج للوصول إلى المعلومات وتشغيل متصفحات الويب، أصبح توفير الخصوصية والثقة تحدياً كبيراً يُعاني منه وكلاء الذكاء الاصطناعي.
تظهر مشكلة تتعلق بتوازن الخصوصية والقدرة، حيث تقدم النماذج السحابية (Cloud Models) أداءً قوياً في تنفيذ العمليات المعقدة، لكنها تعرض البيانات الحساسة للنوافذ الخارجية. من ناحية أخرى، تعمل النماذج المحلية (Local Models) على المحافظة على الخصوصية، لكنها تعاني من موثوقية أقل.
هنا يأتي دور حل التعلم المستمر للمهارات الثابتة (Constant-Context Skill Learning)، الذي يعتمد على إطار يستخدم سياقات متكررة لتحسين الأداء. يتم تعلم الإجراءات القابلة للاستخدام مجدداً في وحدات مهمة خفيفة الوزن، بينما تعتمد معالجة المعلومات على الملاحظات الحالية وكتل الحالة المدمجة.
يساعد متتبع حتمي على رسم هذه الكتلة من تقدم المهام ويقدم مكافآت فرعية متوافقة، مما يضمن تحسين وحدات التعلم من خلال تقنيات التعلم من خلال تعزيز التعزيزم الخطي (RL) وخصائص الإشراف الدقيق (SFT).
تظهر التجارب على ALFWorld وWebShop وSciWorld أن وكلاء الذكاء الاصطناعي يمكن أن يحققوا تحسناً ملحوظاً في الأداء، مع إمكانية الوصول إلى مستويات نجاح تتعدى 89% في بعض المهام، وفي المقابل، يقلل النظام الجديد من تكلفة التعلم (Prompt Tokens) بنسبة تصل إلى 2-7 مرات مقارنة بأساليب سابقة. إن هذا التطور يعد خطوة مهمة نحو تعزيز قدرات الذكاء الاصطناعي، مما يجعل التطبيقات الشخصية أكثر أماناً وموثوقية.
تعلم المهارات الثابتة: الطريق الجديد لوكلاء الذكاء الاصطناعي القوي
تبوأ وكلاء نماذج اللغات الكبيرة (LLMs) مكانة بارزة في تشغيل المتصفحات والأدوات، لكنهم يواجهون تحديات في الخصوصية والثقة. نقدم في هذا المقال إطاراً مبتكراً يعمل على تعزيز الأداء وتقليل التكاليف عن طريق تعلم المهارات الثابتة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
