في عصر الذكاء الاصطناعي، تواجدت نماذج اللغة الضخمة (Large Language Models) كأداة ثورية قادرة على توليد أكواد قابلة للتنفيذ من أوصاف نصية. لكن السؤال الذي يطرح نفسه هنا هو: هل يمكن الاعتماد على هذه النماذج لتنفيذ نماذج مُعتمدة على الوكلاء (Agent-Based Models) بدقة وموثوقية تدعم عمليات النسخ والتحقق؟
لإجابة هذا السؤال، قامت دراسة جديدة بتقييم 17 نموذجاً حديثاً للغة على مهمة ترجمة من ODD إلى أكواد، مستخدمين نموذج الص predator-prey الذي تم توضيحه بالكامل كنقطة مرجعية. أُقيمت تطبيقات بايثون الناتجة من خلال فحوصات تنفيذية منهجية، مقارنة إحصائية غير مرتبطة بالنموذج ضد قاعدة بيانات NetLogo المعتمدة، وقياسات كمية لكفاءة وقت التشغيل وقابلية الصيانة.
تشير النتائج إلى أن التنفيذات التي تعكس السلوك بشكل كامل ممكنة، لكنها ليست مضمونة. ففقط وجود تنفيذ قابل للتنفيذ ليس كافياً للاستخدام العلمي. على سبيل المثال، استطاع نموذج GPT-4.1 إنتاج تنفيذات صحيحة إحصائياً وبكفاءة عالية بشكل مستمر. بينما قدم نموذج Claude 3.7 Sonnet أداءً جيداً لكنه بموثوقية أقل.
توضح النتائج أيضاً كل من العروض والقيود الحالية لنماذج اللغة الضخمة كأدوات هندسة لنماذج الوكلاء والتطبيقات البيئية، مما يفتح الأبواب لإمكانيات جديدة في هذا المجال المهم.
هل يمكن لنماذج اللغة الضخمة (LLMs) تنفيذ نماذج مُعتمدة على الوكلاء؟ دراسة تجريبية مدهشة!
تسعى هذه الدراسة إلى الإجابة عن سؤال حاسم: هل يمكن لنماذج اللغة الضخمة تنفيذ نماذج الوكلاء بدقة؟ النتائج تكشف عن إمكانيات واختلالات مهمة في استخدام هذه التقنيات في البحث العلمي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
