تعتبر الشبكات العصبية واحدة من أبرز التقنيات في مجال الذكاء الاصطناعي، فهي قد حققت تقدمًا مذهلاً في مجموعة واسعة من المهام. ومع ذلك، لا تزال الكثير من جوانبها غامضة، خصوصًا كيف يمكن لتعقيد البيانات المدخلة والمهام التي تحلها أن يؤثر على تمثيلها الداخلي. في دراسة جديدة، تم تقديم مجموعة من الأدوات (data-agnostic probes) التي تشمل تقنيات مثل التصفية (pruning)، ثنائية القيمة (binarization)، إدخال الضوضاء (noise injection)، تغيير الإشارة (sign flipping)، وعشوائية الشبكة الثنائية (bipartite network randomization).

استندت هذه الدراسة إلى تحليل الشبكات العصبية متعددة الطبقات (Multilayer Perceptrons - MLPs) من منظور علم الشبكات. وتمت مقارنة المهام السهلة والصعبة باستخدام مجموعات بيانات MNIST وFashion-MNIST. وقد أظهرت النتائج أن تحويل الأوزان إلى ثنائية القيمة في النماذج التي تتعامل مع المهام الصعبة يؤدي إلى انهيار دقة الأداء إلى مستوى الاحتمال العشوائي، بينما تبقى النماذج التي تتعامل مع المهام السهلة قوية ومتماسكة.

كما تم اكتشاف أن تصفية الحواف ذات الحجم المنخفض في النماذج الثنائية في المهام الصعبة يكشف عن تحول حاد في الأداء. ومن المثير للاهتمام، أن إدخال كمية معتدلة من الضوضاء يمكن أن تحسن من الدقة، مما يشبه تأثير الرنين العشوائي (stochastic-resonance) المرتبط بانقلاب الإشارات للأوزان ذات الحجم الصغير.

أخيرًا، حفظ هيكل الإشارة - بدلاً من مقادير الأوزان الدقيقة - من خلال عشوائية الشبكة الثنائية يكفي للحفاظ على دقة عالية. هذه الظواهر تعرّف مقياسًا مستقلًا عن النماذج ومدى تعقيد المهام: الفجوة في الأداء بين precision الكامل والأداء الثنائي أو العشوائي في الشبكات العصبية. شهدت النتائج أهمية الهيكل الثنائي الموقع في التمثيلات المتعلمة، مما يقترح استراتيجيات عملية لضغط النموذج والقابلية للتفسير التي تتماشى مع تعقيد المهام.