في سعيها لتحسين أداء نماذج اللغات الكبيرة (Large Language Models) خلال فترات الاختبار، تم اعتماد طريقة مبتكرة تعتمد على نقاط المركزية للانتروبيا (Entropy Centroids) كمكافآت داخلية. البيانات تُظهر أن اختيار أفضل استجابة من مجموعة ردود متعددة يمكن أن يساهم بشكل كبير في تحسين جودة النتائج.

تقليدياً، كانت الأساليب المعتمدة تعتمد على نماذج مكافآت خارجية، مما يتطلب جهداً إضافياً في التدريب ويزيد من الأعباء الحسابية. لكن الأداء أثبت أن استخدام إشارات داخلية مثل الانتروبيا والثقة يمكن أن يكون لها تأثير كبير، رغم أن هذه الإشارات كانت تعتبر ضوضائية عند التجميع بطريقة سطحية.

من خلال البحث الحالي، لوحظ أن الرموز ذات الانتروبيا العالية تمتلك نمطاً مشابهاً في التجمعات المتتالية خلال عملية الاستدلال، مما يجعلها تعكس عدم اليقين الخاص بالنموذج بشكل أكثر استقراراً مقارنة بالرموز الفردية. هذا التكتل يُظهر أنماط زمنية لعدم اليقين خلال عملية الاستدلال.

استناداً إلى هذه الملاحظة، تم تعريف مفهوم جديد هو "مرحلة الانتروبيا العالية" (High Entropy Phase - HEP)، والتي تحدد وحدة أساسية من عدم اليقين على مستوى الجزء. ثم تم تطوير مفهوم "مركز الانتروبيا" (Entropy Centroid)، الذي يشبه مفهوم مركز الكتلة في الفيزياء، حيث يعكس المتوسط الموزون لجميع مراحل HEP.

إن إدراك أن مركز الانتروبيا الأقل يشير إلى استكشاف مبكر يتجه نحو توليد موثوق، يفتح آفاقاً جديدة للحصول على استجابات عالية الجودة. وبالتالي، تم اقتراح طريقة "أقل مركز" (Lowest Centroid)، التي تختار الاستجابة ذات أقل مركز انتروبيا من بين مجموعة من الخيارات.

أظهرت التجارب التي أجريت في مهام مختلفة مثل الرياضيات وتوليد الشيفرة والتفكير المنطقي أن هذه الطريقة تتفوق دائماً على الطرق التقليدية وتوفر تحسينات مستقرة مع زيادة حجم النموذج، مما يعكس نجاح النهج المبتكر في تعزيز أداء نماذج الذكاء الاصطناعي.