تشكل الافتراضات المسبقة واحدة من أبرز التحديات التي تواجه أنظمة الذكاء الاصطناعي (AI)، حيث تميل هذه الأنظمة إلى تقديم إجابات واثقة رغم نقص المعلومات. تزداد حدة هذه المشكلة في التطبيقات القانونية، حيث يتعين على المحامين والقضاة والإداريين تحديد ما إذا كانت الأدلة كافية للوصول إلى استنتاج.
في دراسة حديثة تتعلق بقضايا التأمين ضد البطالة، التي شهدت اندماجًا سريعًا للأنظمة الذكية، تم تسليط الضوء على السؤال الحاسم حول مدى اكتفاء المعلومات. من خلال التعاون مع وزارة العمل والتوظيف في ولاية كولورادو، حصل الباحثون على فرصة نادرة للوصول إلى مواد تدريب رسمية وتصميم معيار جديد يتنوع في اكتمال المعلومات.
كما تم تقييم أربعة منصات AI رائدة، حيث أظهرت النتائج أن الأساليب التقليدية المبنية على استدلال القواعد (RAG) تحقق دقة لا تتجاوز 15% عند نقص المعلومات. ومع ذلك، أدت تقنيات التحفيز المتقدمة إلى تحسين هذه الدقة في الحالات غير الحاسمة، لكنها تسببت في تردد الأنظمة في اتخاذ قرارات حتى عندما تكون المعلومات واضحة.
لذا، تم تقديم إطار عمل منظم يُعرف بـ SPEC (Structured Prompting for Evidence Checklists) يتطلب تحديدًا صريحًا للمعلومات المفقودة قبل اتخاذ أي قرار. وقد حقق هذا الإطار دقة تقدر بـ 89% مع تأجيل القرار بشكل مناسب عند نقص الأدلة. مما يدل على أن الافتراضات المسبقة في الذكاء الاصطناعي القانوني هي مشكلة منهجية قابلة للحل، وأن التصدي لها يعد خطوة ضرورية نحو بناء أنظمة تدعم الحكم البشري بدلاً من استبداله في حالات يتطلب القرار فيها أدلة كافية.
هل يمكن للذكاء الاصطناعي أن يتعلم متى لا يتخذ القرار؟ إطار عمل جديد لمحاربة الافتراضات المسبقة!
تتحدى بحوث جديدة ذكاء الأنظمة AI في اتخاذ قرارات قانونية دقيقة. يقدم الإطار الجديد SPEC طرقاً مبتكرة لتحسين دقة قرارات التأمين ضد البطالة، مؤكدًا على أهمية المعلومات الكاملة.
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
