في إطار مساعي تطوير الذكاء الاصطناعي (AI)، تبرز دراسة حديثة تناولت مفهوم توافق الذكاء الاصطناعي عبر نماذج قانونية واقتصادية تهدف إلى تحليل سلوكيات النظام. تخضع التفاعلات بين المكونات الأساسية في نظام الذكاء الاصطناعي، مثل المولّد والمراجِع، لنموذج يشبه نماذج الردع والتطبيق التي تُعالج القضايا الأخلاقية في الاقتصاد.

تتناول الدراسة كيف يمكن للمشاكل التي تظهر في أنظمة الذكاء الاصطناعي أن تُعتبر استجابة استراتيجيات للتحفيزات بدلاً من فشل خارجي. في هذا السياق، يكون مكافأة المنتج (solver) على إنتاج إجابة مقنعة حتى وإن كانت غير صحيحة مُبنية على تقدير المزايا من التهكم مقابل احتمالية الكشف والعقوبات المترتبة.

تظهر النتائج أن عملية تحقيق التوافق ليست بسيطة، بل هي مسألة معقدة تتطلب توازنًا بين تشديد العقوبات، والذي قد يحث على السلوك الحسن، وبين ضرورة مراجعة المكونات الأخرى للتأكد من تطبيق العقوبات بشكل فعال. عندما يكون هناك عقوبات قوية، قد يقل حافز المراجع لمراقبة النتائج، مما يؤدي إلى حالة من التوافق الظاهري.

كما تُبرز الدراسة أهمية إعادة تصميم أنواع المكافآت لتتجاوز تقييم الإجابات النهائية فقط، والعمل على ضم جميع الأحداث المرتبطة بالتصحيح، أي ما إذا كان المنتج قد أخطأ، وما إذا كان المراجع قد تفقد النتائج بالفعل، وما إذا كانت الأخطاء قد تم تحديدها، وما إذا كانت الحوافز للمراجعة ما زالت نشطة.

في النموذج المقترح، يتم تنفيذ عملية تحسين متعددة المستويات لتصميم المكافآت، حيث تُقَيَّم المكافآت بناءً على الأثر السلوكي الذي تُنتجه. تم إجراء تجارب على نظام ترميز يستخدم نماذج لغوية كبيرة (LLM)، وأظهرت النتائج أن انماط المكافآت القابلة للتكيف يمكن أن تُعزز الضغط المطلوب للتحقق وتحسن النتائج المرتبطة بالطرف الرئيسي مقارنة بالمكافآت ثابتة التصميم، مع تقليل ملحوظ في النتائج الخاطئة الناتجة عن التصورات غير الصحيحة.