في عالم الذكاء الاصطناعي المتقدم، يُطرح سؤال محوري: كيف تتعلم نماذج اللغات الضخمة (LLMs) في السياقات؟ هل تعتمد على مطابقة الأنماط من الرموز الحديثة، أم على استنتاج الهيكليات الكامنة؟ من خلال دراسة جديدة، تم استخدام نموذج بسيط من الرسم البياني لاستكشاف هذا السؤال عبر هيكليتين متنافسين.
تقدم هذه الدراسة أدلتين رئيسيتين تكشفان عن عدم كفاية كل حساب لجوانب التعلم. الأولى، من خلال إعادة بناء هيكل التمثيل الداخلي باستخدام تقنية التحليل العنقودي الرئيسي (PCA)، يظهر أن كلا الهيكلين يتم ترميزهما بشكل متزامن في فضاءات فرعية رئيسية متعامدة عند نسب خلط متوسطة.
الثانية تتعلق بتدخلات تنشيط خط مسار المتبقي وتوجيه فرق الرسم البياني، حيث يكاد الانتقال المتأخر للنموذج ينقل تفضيل الرسم البياني النظيف بالكامل، بينما توجيه الخط يميل للتنبؤات الصحيحة ولكنه يفشل في ظل ظروف التحكم المعاكسة.
تؤكد هذه النتائج على فكرة وجود آلية مزدوجة في التعلم، حيث تعمل دوائر الاستدلال الهيكلي والنسخ المحلي بشكل متوازي. إذًا، هل هذا يعني أن الذكاء الاصطناعي يمزج بين الاستنتاج والترتيب في تعلمه؟
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
تعلم غير تقليدي: هل يعتمد الذكاء الاصطناعي على الهيكليات أم الصدفة؟
تتعمق دراسة جديدة في كيفية تعلم نماذج اللغات الضخمة (LLMs) من خلال استكشاف التفاعلات المعقدة بين الأنماط والهيكليات. تكشف النتائج أن الذكاء الاصطناعي يستخدم أسلوبًا مزدوجًا يجمع بين الاستدلال الهيكلي والنسخ المحلي.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
