تتقدم مجالات الذكاء الاصطناعي بفضل تطوير نماذج لغوية ضخمة (Large Language Models) مثل OpenSeeker-v2، التي استطاعت دفع حدود محركات البحث إلى آفاق جديدة. في هذا السياق، يعتبر OpenSeeker-v2 إنجازاً أكاديمياً فريداً، حيث استخدمت فيه استراتيجية تدريب بسيطة للغاية تعتمد على تحسين مُراقَب (Supervised Fine-Tuning) متطورة، مظهراً كيف يمكن للتطورات الأكاديمية أن تنافس الأعمال الكبرى.

تسعى التطورات في أبحاث الذكاء الاصطناعي إلى تقديم قدرات بحث عميقة ومتميزة بعيدة عن التعقيدات الصناعية الحالية، التي تتطلب موارد ضخمة وعمليات معقدة تشمل التدريب المسبق المستمر (Continual Pre-Training) وضبط دقيق مُراقَب (Supervised Fine-Tuning) وتعلّم التعزيز (Reinforcement Learning). ومع ذلك، أظهر الفريق الأكاديمي الذي طور OpenSeeker-v2 أن التحسينات البسيطة يمكن أن تؤدي إلى نتائج غير متوقعة.

قام الباحثون بإدخال ثلاثة تعديلات على البيانات التي تم استخدامها في التدريب: زيادة حجم الرسوم البيانية المعرفية (Knowledge Graphs) لاستكشاف أغنى، توسيع مجموعة الأدوات لزيادة الوظائف، وفلترة صارمة للخطوات المنخفضة. ومن خلال هذه النهج، تمكن OpenSeeker-v2 من تحقيق أداء مذهل بتدريبه على 10,600 نقطة بيانات، متجاوزاً نماذج سابقة مثل Tongyi DeepResearch التي استخدمت أطر معقدة.

نتائج OpenSeeker-v2 أصبحت واضحة عبر أربع اختبارات مرجعية، حيث سجلت: 46.0% على اختبار BrowseComp، و58.1% على BrowseComp-ZH، و34.6% على اختبار Humanity's Last Exam، و78.0% على xbench. وقد تجاوزت هذه النتائج حتى تلك التي حققتها الأنظمة التي استخدمت مسارات تدريب معقدة.

أخيرًا، قام الباحثون بإتاحة وزن النموذج OpenSeeker-v2 كمصدر مفتوح، مما يوفر فرصة مثيرة للمجتمع الأكاديمي والباحثين لاستكشاف هذه الإنجازات واستغلالها في مجالات أخرى.