في إطار البحث المستمر لتحسين قدرات التفكير الاستنتاجي في نماذج اللغة الضخمة (LLMs)، توصل العلماء إلى تطبيقات مبتكرة تدمج بينها وبين مؤشرات المنطق الرسمي.
إحدى التحديات الرئيسية التي تواجه هذه النماذج هي نقص المعرفة العادية (commonsense knowledge)، مما يمنعها من اتخاذ خطوات استنتاجية يمكنا اعتبارها بديهية.
للحد من هذه المشكلة، استخدمت العديد من الطرق السابقة نماذج اللغة الضخمة لتزويد الناقص في الافتراضات العادية، لكن هذه الأساليب تفترض ضمنيًا توافقًا عامًا على تلك الحقائق.
ومع ذلك، فإن الواقع يكشف عن تباين في المعتقدات العادية بين الأفراد. ومن هنا، جاء الاقتراح لتطوير إطار احتمالي للتفكير الاستنتاجي بالاعتماد على الفطرة السليمة، يعمل على نموذج هذه الاختلافات.
نقدم لكم خوارزمية جديدة تسمى "PACS" (Probabilistic Abductive CommonSense)، التي تدمج بين نموذج اللغة الضخمة والحل المنطقي لتجميع استنتاجات من بلاغات حقيقية تعكس معتقدات مختلفة. تساعد هذه الخوارزمية في اختبار القيم الأكثر شيوعًا حول عبارات معينة ليحدد ما إذا كان معظم الناس يرونها صحيحة أو خاطئة.
تظهر التجارب أن PACS يتفوق على أساليب التفكير المتسلسل والطرق السابقة في النماذج العصبية الرمزية، بالإضافة إلى المناهج المستندة إلى البحث عبر عدة معايير.
إذا كنت مهتمًا بعالم الذكاء الاصطناعي وكيف يمكنه إعادة تشكيل فهمنا للفطرة السليمة، فلا تفوت فرصة معرفة المزيد عن هذه التقنية المبتكرة.
تعزيز التفكير الاستنتاجي: كيف يغير الذكاء الاصطناعي قواعد اللعبة في استنتاجات الفطرة السليمة؟
نقدم لكم رؤية جديدة حول كيفية استخدام نماذج اللغة الضخمة (LLMs) لتحسين التفكير الاستنتاجي من خلال دمج الفطرة السليمة. هل يمكن للذكاء الاصطناعي فهم ما يعتبره معظم الناس بديهيًا؟
المصدر الأصلي:أركايف للذكاء
زيارة المصدر الأصلي ←جاري تحميل التفاعلات...
