تتسم نماذج اللغات الكبيرة (Large Language Models) بأداء رائع في العديد من مهام معالجة النصوص، لكن تظل المشكلة الأساسية التي تواجهها هي تحقيق التوازن بين الإبداع والترابط أثناء توليد النصوص المفتوحة. في ظل هذا الإطار، شهدنا تطوير تقنية جديدة تحمل اسم **Top-H Decoding**، التي تعد خطوة رائدة في هذا الاتجاه.

تعمل تقنية Top-H على معالجة هذا التحدي بطريقتها الفعالة، حيث حاولت الأساليب التقليدية مثل تقنيات أخذ العينات المحدودة (truncated sampling) مثل تسخين درجة الحرارة (temperature scaling) وأخذ العينات بالحد الأدنى (min-p sampling) تحقيق التوازن، لكن كانت تفتقر للكفاءة في دمج ثقة النموذج مع استراتيجيات العينة.

ما يميز Top-H هو أنها تؤسس على أساس نظري يتناول التفاعل بين الإبداع والترابط في أخذ العينات المحدودة من خلال صياغة مشكلة **الحد الأدنى من التباين المقيد بالإنتروبي** (entropy-constrained minimum divergence problem). وقد أثبتت الأبحاث أن هذه المشكلة قابلة للاختزال إلى مشكلة **زيادة كتلة مقيدة بالإنتروبي** (entropy-constrained mass maximization) التي تكون NP-hard.

تتوفر تقنية Top-H كخوارزمية جشعة فعالة لحل هذه المشكلة، وكشفت التقييمات التجريبية الشاملة أنها تتفوق على بدائلها الأكثر تقدمًا مثل أخذ العينات بالحد الأدنى بنسبة تصل إلى **25.63%** في مقاييس الكتابة الإبداعية، مع الحفاظ على كفاءتها في قواعد البيانات المتعلقة بالإجابة على الأسئلة مثل GPQA وGSM8K وMT-Bench.

الأهم من ذلك، أكدت تقييمات *نموذج LLM كمقيم* (LLM-as-judge) أن Top-H تنتج نصوصًا مترابطة حتى عند درجات حرارة أعلى، حيث يصبح الإبداع أمرًا بالغ الأهمية. تعزز Top-H بالتالي معايير الأداء في توليد النصوص المفتوحة، ويمكن دمجها بسهولة في تطبيقات الكتابة الإبداعية. يمكنك الاطلاع على الكود المصدر [هنا](https://github.com/ErfanBaghaei/Top-H-Decoding).

ما رأيكم في هذا التطور الذي يعزز الإبداع أثناء الكتابة؟ شاركونا في التعليقات!