في دراسة حديثة أعدها الباحث تيان (2025)، تم إثبات نظرية جديدة تجسد مفهوم القوة التنافرية (Repulsion Theorem) في الشبكات العصبية ذات الطبقتين، مما يسلط الضوء على كيفية تفاعل الميزات أثناء مرحلة التعلم التفاعلي.

النظرية تشير إلى أن الميزات المتشابهة تؤدي إلى وجود قيم سلبية على العناصر غير القطرية لمصفوفة معينة، مما ينتج عنه قوة تفرقة تجعلها تتباعد عن بعضها. ولكن، الأسئلة التي تظل دون إجابة هي متى يمكن ملاحظة هذه الظاهرة بشكل تجريبي، وما إذا كانت تترك بصمة طيفية قابلة للقياس في تحديثات المعاملات.

للاختبار، قام الباحثون بتطبيق النظرية على نموذج إضافة وحدات (Modular Addition) الذي يتضمن 71 وحدة وعينة إدخال بحجم 2048، مع استخدام خسارة متوسطة التربيع (MSE Loss). تم رصد تباين واضح في الأداء بين تركيب النموذج وتفاعلات الميزات، حيث تميزت النسب المختلفة بين الميزات الأكثر تشابهًا.

النتائج المبدئية أوضحت أن القاعدة المتوقعة لأصوات تفاعلات الميزات ظهرت بوضوح، حيث ارتفعت من 0.865 إلى 0.985 عبر 5 محاولات، مع الوصول إلى 1.000 عند استخدام تفعيل دالة ReLU. ومع ذلك، كانت البصمة الطيفية لتحديثات المعاملات تعتمد بشكل كبير على نوع التفعيل المستخدم.

استخدام دالة التفعيل x² أظهر استجابة واضحة لنظام كشف الانحدار عند مستوى معين، بينما مع استخدام ReLU لم يُسجل أي استجابة، مما يؤكد الحدود المهمة بين نماذج التعلم المختلفة.

ختامًا، هذه الدراسة ليست مجرد إضافة للمعرفة النظرية، بل تقدم رؤى استراتيجية قد تُساعد في تحسين أداء نماذج الذكاء الاصطناعي في المستقبل. فما رأيكم في هذه النتائج المثيرة؟ شاركونا في التعليقات.