في عالم وسائل التواصل الاجتماعي، أصبح المحتوى السام تحديًا متزايدًا يتطلب حلولًا مبتكرة. هنا يأتي دور مشروع SMARTER، الذي يمثل إطار عمل ذو فعالية عالية للكشف عن السلوكيات السلبية بشكل مفسر. يعتمد SMARTER، الذي يعني "تعديل على أساس الذكاء الاصطناعي القائم على البيانات"، على طريقتين رئيسيتين لتعزيز دقة الكشف.
في المرحلة الأولى، يستفيد المشروع من مخرجات نماذج اللغة الكبيرة (Large Language Models) نفسها لتوليد تفسيرات اصطناعية لكل من التصنيفات الصحيحة والخاطئة. هذه الطريقة تعزز عملية المحاذاة عبر تحسين التفضيلات مع الحد الأدنى من الإشراف البشري.
أما المرحلة الثانية، فتقوم بتحسين جودة التفسيرات من خلال التدريب المشترك بين النماذج. وهي تقنية تسمح للنماذج الأضعف بالتوافق من الناحية الأسلوبية والدلالية مع النماذج الأقوى، مما يساهم في تحسين الأداء بشكل عام.
أظهرت التجارب التي أجريت على ثلاث مهام مرجعية - HateXplain وLatent Hate وImplicit Hate - أن SMARTER يمكن أن يساعد نماذج اللغة الكبيرة في تحقيق تحسين يصل إلى 13% في مؤشر F1 الكلي مقارنةً بطرق التحليل القليلة الاستخدام للبيانات، وذلك مع استخدام جزء فقط من مجموعة البيانات الكاملة.
يعتبر هذا الإطار استراتيجية لديها القدرة على التوسع بشكل كبير، مما يتيح استخدام نماذج اللغة الكبيرة في إعدادات ذات موارد محدودة، مستفيدة من قدراتها الذاتية في تحسين كل من التصنيف والتفسير. تعد هذه النقلة النوعية خطوة هامة نحو إنشاء بيئات رقمية أكثر أمانًا، حيث يساهم الذكاء الاصطناعي في تصفية المحتوى الضار وحماية المستخدمين.
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
SMARTER: إطار مبتكر لتحسين الكشف عن المحتوى السام بذكاء اصطناعي متقدم
يقدم مشروع SMARTER استراتيجية جديدة لمواجهة المحتوى السام على وسائل التواصل الاجتماعي من خلال استغلال نماذج اللغة الكبيرة. يتيح هذا الإطار تحسين دقة الكشف بفعالية كبيرة باستخدام بيانات أقل.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
