في عالم الذكاء الاصطناعي المتسارع، تبرز الحاجة إلى تحسين التفكير الاستدلالي في نماذج اللغة الكبيرة (LLMs) بشكل يتماشى مع التطبيقات الواقعية. من هنا، نجد أن تقنية Think-at-Hard (TaH) تأتي كحل مبتكر لمواجهة التحديات المتعلقة بتعقيدات الاستنتاج. تسعى هذه التقنية إلى تعزيز دقة النماذج من خلال استخدام تكرارات انتقائية، حيث أظهرت الأبحاث أن معظم توقعات الرموز الصحيحة تتم غالباً بعد المرور الأول، ولكن يمكن أن تتغير سلباً في التكرارات اللاحقة.\n\nما تفعله TaH هو تحسين العملية، معتمدة على مصفوفات Low-Rank Adaptation (LoRA) التي تنقل الهدف من توقع الرمز التالي العام إلى تحسين دقيق للرموز الدقيقة. باستخدام آلية انتباه ثنائية السبب، يمكن للتركيز الانتقال من بُعد تسلسل الرموز إلى عمق التكرار، مما يعزز تدفق المعلومات بين التكرارات بسلاسة تامة.\n\nفي اختبارات على تسعة معايير، أظهرت TaH مكاسب مستمرة في المهام الرياضية، الأسئلة والأجوبة، وبرمجة الأكواد. مع نفس عدد المعلمات، كانت النتائج أفضل بنسبة تتراوح بين 3.8% و4.4% مقارنة بالأساليب التقليدية، مع تخطي خيار تخطي التكرارات لـ93% من الرموز. وعند السماح بزيادة أقل من 3% في المعلمات من وحدات LoRA ومحدد القرارات، زادت المكاسب إلى 5.3%-6.8%. هذه النتائج تدل على إمكانيات كبيرة لتطوير الذكاء الاصطناعي وضمان موثوقية التطبيق في المجالات المختلفة.