في عالم الذكاء الاصطناعي المتطور، تتعاون نماذج اللغات الكبيرة (Large Language Models) بشكل متزايد على شبكات الند للند (peer-to-peer) لتعزيز موثوقيتها. ولكن، هذه التفاعلات قد تتحول أيضاً إلى نقطة ضعف، حيث يمكن أن تؤدي العناصر غير الموثوقة أو البيزنطية (Byzantine) إلى توجيه العملاء المنافسين نحو استنتاجات غير صحيحة مما يؤثر سلباً على أداء النظام ككل.
تستند الطرق الحالية إلى تنسيق يعتمد على القيادة أو الإبلاغ الذاتي عن الثقة، وكلاهما عرضة للتلاعب العدائي. وبدلاً من ذلك، قمنا بدراسة نظم وكلاء LLM المتعددة وكشفنا تقديم البروتوكول الثوري 'Self-Anchored Consensus' (SAC)، وهو بروتوكول فلترة وتكرير كامل غير مركزي يتم فيه تبادل الردود بشكل متكرر، وتقييم محلي للرسائل غير الموثوقة، وتنقيح المخرجات الخاصة بهم.
نقدم شروط المواءمة $(F{+}1)$ للتواصل بين الوكلاء، مما يضمن أن الوكلاء الصادقين يحتفظون ويقومون بنشر المعلومات الموثوقة على الرغم من التأثيرات البيزنطية. لقد أظهرت التجارب على معايير التفكير الرياضي والفطري أن البروتوكول SAC يكبح بنجاح التأثيرات البيزنطية، ويحسن الأداء باستمرار عبر طوبولوجيات التواصل المختلفة، بينما تنخفض فعالية الطرق السابقة في ظل الظروف العدائية.
مستقبل الذكاء الاصطناعي يبدو واعداً مع هذه الخطوات أمام التحديات المطروحة. ما رأيكم في هذه التطورات؟ شاركونا في التعليقات.
هل يمكن للذكاء الاصطناعي التغلب على التحديات؟ نظام LLM متعدد العوامل يتجاوز الأخطاء البيزنطية!
نظام LLM متعدد العوامل يعزز كفاءة الذكاء الاصطناعي عبر شبكات الند للند، رغم التحديات التي تطرحها العناصر البيزنطية. الابتكار في بروتوكول 'Self-Anchored Consensus' يتيح تبادل المعلومات بشكل موثوق.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
