في عالم الذكاء الاصطناعي، يبقى تفسير سلوك نماذج اللغات الكبيرة (LLMs) تحديًا مستمرًا خاصة في البيئات التفاعلية التي تتميز بالمعرفة الجزئية، حيث تتوقف القرارات على المعتقدات المتغيرة وتفاعلات الوكلاء الآخرين. هنا يأتي دور **TriEx**، وهو إطار مبتكر يهدف إلى توفير تفسير شامل للقرارات المتخذة من خلال استغلال بيئات الألعاب الاستراتيجية.

ما هو TriEx؟


يركز إطار TriEx على تقديم تفسيرات واضحة من خلال دمج ثلاثة جوانب رئيسية:
1. **تفكير ذاتي من منظور الشخص الأول**: يقدم هذا الجانب تفسيرات مرتبطة بشكل مباشر بالأفعال المتخذة.
2. **معتقدات مرئية عن الخصوم**: يتيح هذا الجانب تحديث المعلومات حول معتقدات الخصوم على مدار الوقت مما يسهل فهم نوعية البيانات المتاحة للوكلاء.
3. **تقييمات موضوعية من منظور الشخص الثالث**: يستند هذا العنصر إلى إشارات مستمدة من البيئة لفحص سلوك الوكلاء.

التحليل الديناميكي


بفضل هذه الطريقة، تتحول التفسيرات من سرد حر إلى كائنات مدعومة بالأدلة، مما يسهل مقارنتها عبر الزمن ووجهات النظر المختلفة. تُستخدم الألعاب الاستراتيجية ذات المعلومات غير الكاملة كتجربة محكومة، حيث يظهر TriEx فعالية عالية في تحليل موثوقية التفسيرات، وديناميكيات المعتقدات، وموثوقية المقيمين، مما يكشف عن تفاوتات منهجية بين ما يقوله الوكلاء، وما يعتقدونه، وما يفعلونه.

توضح النتائج أهمية التفسير كخاصية تعتمد على التفاعل، وهو ما يدعم الحاجة إلى تقييم متعدد الزوايا يستند إلى الأدلة لوكلاء LLMs. يمكنكم استعراض الكود الخاص بالبحث على رابط [GitHub](https://github.com/Einsam1819/TriEx).

ما رأيكم في تطوير تفاسير الذكاء الاصطناعي بهذه الطريقة؟ شاركونا آراءكم في التعليقات!