تشكل مراجعة الكود محورًا أساسيًا في تعليم البرمجة، إلا أنها تواجه صعوبات كبيرة في مشاريع التخرج بسبب المواعيد الضيقة، تفاوت ردود الأقران، والخبرة المحدودة. في خطوة مبتكرة، تم اختبار نموذج لغة كبيرة (Large Language Model) كمراجع للكود، حيث تم دمجه مباشرةً في طلبات سحب GitHub (Pull Requests) لكتلتي طلاب (أكثر من 100 طالب) على مدار عام 2023-2024.
اعتمدت الدراسة على تصميم مختلط من البيانات المستخرجة من GitHub، التقارير التأملية، واستبيانات موجهة لدراسة تجارب الطلاب في استخدام الأداة الجديدة.
أظهرت النتائج الكمية أن الكتلة الطلابية لعام 2024 أنتجت نشاطًا تكراريًا أكبر، حيث بلغ عدد طلبات السحب 1176 مقارنة بـ 581 في عام 2023، بينما تراجعت المشكلات الفنية التي تم ملاحظتها في 2023 (227 محاولة فاشلة من الذكاء الاصطناعي) إلى صفر بفضل تحسين الأداة والتوجيهات.
على الرغم من مستويات التبني المتفاوتة (93% في 2024 مقابل 50% في 2023)، كانت الاستجابة مستقرة، حيث 32% من طلبات السحب التي تمت مراجعتها بواسطة الذكاء الاصطناعي في 2023 تلاها تعديلات، بينما بلغت النسبة 33% في 2024.
من خلال التعليقات المنهجية التي قدمها النموذج، استطاع الطلاب توجيه مراجعاتهم ومناقشة جودة الكود بشكل فعال، مما أدى إلى تقليل الاعتماد المفرط على الأداة.
تساهم هذه الدراسة في عدة جوانب رئيسية: تصميم العمل الذي يستند إلى الذكاء الاصطناعي لدعم التعلم بموازاة تقليل تحميل الفكر، وإجراء مقارنات عبر الفئات في سياقات حقيقية، بالإضافة إلى توفير توصيات تربوية مستندة إلى أدلة تقودها الطلاب بشأن المراجعات المدعومة بالذكاء الاصطناعي.
تفتح هذه النتائج آفاقًا جديدة لتعزيز جودة التعلم وتطوير مهارات البرمجة، مما يجعلها تجربة تعليمية مثيرة تستحق المتابعة.
كيف يساهم الذكاء الاصطناعي في تحسين جودة التعليم البرمجي؟ مراجعة جديدة تعكس التجربة!
كشف تقرير جديد عن تجربة استخدام نماذج اللغة الكبيرة (LLMs) في مراجعة التعليم البرمجي، محققًا نتائج مثيرة حول تحسين جودة التعليم وسير العمل في مشاريع البرمجة. التقنيات الحديثة تعيد تشكيل أساليب التعلم الذاتي للطلاب.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
