إن تكنولوجيا نماذج اللغات الضخمة (Large Language Models) تُعتبر واحدة من أبرز التطورات في مجال الذكاء الاصطناعي. ومع تقدم هذا المجال، تبرز التحديات المرتبطة بموثوقية الردود في إطار خدمات نماذج اللغات الضخمة. فقد أظهرت الأبحاث الأخيرة أن موثوقية الاستجابة غالبًا ما تكون مرئية جزئيًا فقط عند اتخاذ القرار. ومع وجود طُرق استنتاج أقوى، تتزايد التكاليف الحاسوبية بشكل كبير، مما يؤدي إلى مشكلة قرارات متتالية ضمن ميزانية محددة.

في هذا السياق، تم تقديم إطار عمل جديد يُعرف باسم Verifiable Observations for Risk-aware Inference Control (Veroic). يُعتبر هذا النظام خطوة متقدمة في التحكم الذكي في الاستنتاج في بيئات نماذج اللغات الضخمة المعتمدة على الحواسيب. يعتمد Veroic على نموذج غير مرئي جزئيًا (Partially Observable Markov Decision Process) لالتقاط جزء من الملاحظات وارتباطات الميزانية المتتابعة.

كيف يعمل Veroic؟ من خلال بناء قناة ملاحظة قابلة للتحقق تعتمد على زوج المدخلات والمخرجات، حيث يتم تجميع إشارات الجودة المتنوعة في حالة اعتقاد حول موثوقية الاستجابة الكامنة. يتم استخدام هذه الحالة من قبل سياسة واعية للميزانية لتحديد ما إذا كان يجب شحن رد افتراضي منخفض التكلفة أو تفعيل مسار استنتاجي أعلى تكلفة.

أظهرت التجارب على مهام متنوعة أن Veroic يحقق توازنًا أفضل بين الجودة والتكلفة، مما يُعزز استنتاج المخاطر والتقويم، ويوفر تحكمًا قويًا في الاستنتاج على المدى الطويل مقارنة بالممارسات القياسية المنافسة. تعتبر هذه الخطوة نقلة نوعية في مجال الذكاء الاصطناعي، فتشجيع البحث في المجالات المماثلة قد يُفضي إلى اكتشافات جديدة.