في عالم الذكاء الاصطناعي، حيث تتزايد استخدامات النماذج الكبيرة (Large Language Models) كنماذج تفاعلية في اتخاذ قرارات هامة، يعتقد مجتمع سلامة الذكاء الاصطناعي أن خصائص الأمان للنماذج الفردية ستدمج بشكل آمن في سلوكيات جماعية. ومع ذلك، تنتقد ورقة موقف جديدة هذه الفرضية، مبينة أن سلامة نماذج الذكاء الاصطناعي تعتمد على هيكل التفاعل (Interaction Topology) وليس على وزن النموذج (Model Weights).

تظهر الأبحاث أن سلوك الأنظمة المعتمدة على الذكاء الاصطناعي يتم تحديده أكثر من خلال الهيكل المعلوماتي وتزاوج القرارات بدلاً من خصائص النماذج ذاتها. تلقي الورقة الضوء على مجموعة من القضايا الناجمة عن التصميم التفاعلي، تشمل:

1. **عدم استقرار الترتيب**: حيث يعتمد سلوك النظام بشكل رئيسي على تسلسل الوكلاء عند اتخاذ القرار.
2. **تسلسلات المعلومات**: حيث تنتشر الأحكام المبكرة بغض النظر عن صحتها.
3. **الانهيار الوظيفي**: حيث تلبي الأنظمة معايير العدالة لكنها تتخلى عن التفريق بين المخاطر بشكل فعال.

على عكس ما يُعتقد، فإن الانتقال نحو نماذج أكثر قوة يؤدي إلى تعزيز هذه التأثيرات بزيادة تشكيل الإجماع وتقليل تحديات القرارات الأولية. وتؤكد الورقة أنه يجب معاملة الذكاء الاصطناعي التفاعلي كنظام ديناميكي، وليس مجرد مجموعة من المكونات المتوافقة.

لذا، ينبغي أن يصبح الهيكل التفاعلي هدفًا رئيسيًا لتقييم الأمان والتنظيم، مع ضرورة إظهار الأنظمة لمرونتها عبر الاختلافات المعمارية قبل نشرها. هل تعتقد أنه يمكننا تحسين سلامة الذكاء الاصطناعي من خلال تغيير طريقة تقييمنا للتفاعلات؟ شاركونا آراكم في التعليقات!