في عالم الذكاء الاصطناعي، تواجه أنظمة نماذج اللغات الضخمة (LLMs) التي تعتمد على تعدد الوكلاء تحديًا رئيسيًا يتمثل في اختيار الهيكل الأمثل للتوجيه. يعتمد هذا الاختيار على تعقيد البنية البرمجية التي يتم تعديلها، ومع ذلك، فإن الأنظمة الحالية تقوم باختيار البنى دون الرجوع إلى قاعدة الأكواد المعنية. هنا يأتي دور التقنية الجديدة التي نقدمها: التوجيه التكيفي المدعوم بالاسترجاع (Retrieval-Guided Adaptive Orchestration - RGAO).
تقوم RGAO باستخراج متجه تعقيد الهيكل من فهرس أكواد هرمي قبل اختيار هيكل التوجيه، مما يسهم في تحسين الأداء. تعمل هذه التقنية ضمن إطار عمل Code-Agent، الذي يتكون من وكلاء فرعيين يخضعون لعقود رسمية تضم متجهات ميزانية ذات أبعاد ستة.
إن الإسهام الأساسي لهذه التقنية هو دمج اثنين من خطوط العمل المنفصلة سابقًا: توجيه نماذج اللغات بناءً على تعقيد الأكواد وعلوم الموارد الرسمية. هذا الدمج يوفر خاصية جديدة لا يمكن تحقيقها بمفردها: الحفاظ المثبت على الميزانية عند اختيار هيكل ديناميكي للتوجيه بناءً على نتائج الاسترجاع.
لقد قدمنا عدة إسهامات ملموسة بهذا الخصوص:
1. جهاز توجيه يعتمد على تعقيد الهيكل، حيث تم تقليل الخطأ الناتج عن التوجيه الخاطئ من 30.1% إلى 8.2%.
2. جبر الميزانية مع نظرية الحفاظ على الهيكل.
3. محرك استرجاع أكواد هرمي.
تظهر التقييمات التجريبية قدرة هذه التقنية على بناء الرسوم البيانية الاتجاهية في جزء من المللي ثانية وتحقيق توسيع خطي في فهرس الأشجار.
ما رأيكم في هذه التقنية المبتكرة؟ هل تعتقدون أنها ستغير كيفية توليد الأكواد في المستقبل؟ شاركونا آرائكم!
ثورة في توليد الأكواد: تقنية جديدة تتحدى البنية التقليدية مع الحفاظ على الميزانية!
تقديم تقنية جديدة تعتمد على التوجيه المدعوم بالاسترجاع لتحسين توليد الأكواد في أنظمة الذكاء الاصطناعي متعددة الوكلاء. هذه التقنية تجمع بين تعقيد البنية والموارد لضمان كفاءة أعلى.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
