تُعتبر نماذج اللغة الكبيرة (LLMs) واحدة من أبرز الابتكارات في مجال الذكاء الاصطناعي، حيث تُستخدم بشكل متزايد في توليد الأكواد البرمجية. ومع ذلك، تبقى التحديات المتعلقة بضمان صحة وظائف الأكواد المُنتجة قائمة. في السنوات الأخيرة، سعت العديد من الدراسات إلى تحسين جودة الأكواد من خلال تطبيق تطوير مدفوع بالاختبار (Test-Driven Development - TDD)، لكن هذه الطرق غالباً ما تعاني من ضعف الجودة في ردود الفعل المستخدمة، مما يحد من فاعليتها.

الإشكالية تكمن في ندرة حالات الاختبار عالية الجودة والإشارات المربكة التي تُنتجها الاختبارات التلقائية. لذلك، يقوم البحث الجديد بإعادة توجيه التركيز من كمية الاختبارات إلى جودة ردود الفعل. ولتحقيق ذلك، تم تقديم مفهوم جديد يُعرف بالـ Property-Generated Solver (PGS) والذي يهدف إلى توليد ردود فعل فعّالة عبر مبدأين رئيسيين: الأول هو التوجه نحو الخصائص (property-oriented) لتوفير إرشادات دلالية تتجاوز الأخطاء البسيطة في المدخلات والمخرجات، والثاني هو تقليل التعقيد الهيكلي (structurally minimal) لتخفيض العبء الذهني وعزل الأسباب الجذرية لمشكلات الأكواد.

يعمل نظام PGS من خلال فحص الخصائص العليا للبرنامج، مثل ضمان أن دالة الترتيب تُنتج سلسلة غير متناقصة، ثم تقديم مثال فاشل بسيط لـLLM. وبفضل هذه المبادئ، تؤدي آلية ردود الفعل المستهدفة إلى تحسينات ملحوظة في الأداء، حيث حقق PGS زيادة تصل إلى 13.4% في نسبة النجاح مقارنةً بأساليب TDD الأخرى، ونسبة إصلاح تجاوزت 64% في الحالات التي فشلت فيها النماذج في البداية.

بصفة عامة، يُظهر PGS أداءً أفضل عبر عدة معايير، حيث حقق معدل إصلاح للأخطاء يتراوح بين 1.4x-1.6x أعلى من أقوى النهج المعتمدة على تصحيح الأخطاء، مؤسّساً بذلك معياراً جديداً في تصحيح الأكواد التلقائي. يُعد هذا التطور خطوة كبيرة نحو ضمان تحسينات أكثر دقة وثباتًا لنماذج اللغة الكبيرة، مما يساهم في تطوير حلول أكثر موثوقية وقابلية للتطبيق في البرمجة.