مع التطور السريع في تقنيات الذكاء الاصطناعي، تبرز نماذج اللغة الكبيرة (LLMs) كأداة قوية لتحسين مهام الأتمتة على الويب. لكن هناك مشكلة تؤثر على كفاءتها تعرف بـ"أزمة إعادة التشغيل"، حيث تتزايد تكاليف الاستدلال بشكل خطي مع تكرار المهام. في دراسة جديدة، تم تحليل هذه الأزمة والكشف عن كيفية التغلب عليها.
تظهر البيانات أن نموذج لعمليات تتضمن خمس خطوات على مدى 500 تكرار يكلف حوالي 150.00 دولار، حتى مع استخدام تقنيات التخزين المؤقت المكثف. لكن الحل الجديد الذي يُطلق عليه "العمار- والتنفيذ"، يهدف إلى فصل التفكير المدفوع بنموذج اللغة عن تنفيذ المتصفح، مما يقلل تكاليف الاستدلال لأكثر من 98%، إلى أقل من 0.10 دولار لكل عملية.
هذا النموذج يعتمد على إنشاء تمثيل دلالي فعال من وحدة تطهير نموذج الكائنات (DOM Sanitization Module)، ويقوم بإصدار خطة عمل بتنسيق JSON يمكن للنظام تشغيلها دون الحاجة لاستفسارات إضافية عن النموذج.
نتائج التجارب أكدت نجاح هذا النهج، حيث حققت معدلات نجاح تتراوح بين 80-94% في مهام استخراج البيانات، وملء النماذج، والتعرف على البصمات، مما يفتح آفاقًا جديدة لأتمتة أكثر موثوقية وفعالية اقتصادياً.
باستخدام تكاليف تتراوح بين 0.002 و0.092 دولار لكل تجميع، تقدم هذه التقنية نموذجًا جديدًا يمكنه تحقيق أتمتة بتكاليف كانت تعتبر غير قابلة للتطبيق في السابق. كيف تعتقد أن هذا التطور سيؤثر على مستقبل أتمتة الويب؟ شاركونا آرائكم.
ثورة في أتمتة الويب: كيف تقلل تكلفة الاستدلال باستخدام نماذج لغوية ضخمة؟
تقدم هذه المقالة حلاً مبتكرًا لمشكلة الاستدلال المتكرر باستخدام نماذج لغوية ضخمة (LLMs) في أتمتة المهام على الويب. مع التخفيض الكبير في تكلفة الاستدلال، يمكن تحقيق أتمتة اقتصادية فعّالة لمهام معقدة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
