تشكل الأنظمة القائمة على القواعد جزءًا أساسيًا من مجالات تتطلب أمانًا عالياً، ولكنها تعاني غالبًا من مشكلات مثل ضعف القدرة على التوسع وسهولة الكسر وعدم التحديد الواضح للأهداف. يمكن أن تؤدي هذه العوائق إلى مشاكل مثل استغلال المكافآت وفشل التحقق الرسمي، حيث تميل أنظمة الذكاء الاصطناعي لتركيز جهودها على أهداف ضيقة.

في الأبحاث السابقة، قمنا بتطوير إطار عمل عصبي-رمزي يعتمد على نماذج منطقية وإعادة التعلم العميق ضمن حلقة MAPE-K، مما يعزز من القدرة على تقديم تعديلات قابلة للتفسير في ظل تغيرات الظروف. في هذا البحث الجديد، قمنا بتوسيع هذا الإطار من خلال تقديم طبقة على المستوى الفوقي تهدف إلى التخفيف من مشكلات تحديد الأهداف ودعم صيانة القواعد بشكل متدرج.

تتكون هذه الطبقة من مُركب أهداف/قواعد (Goal/Rule Synthesizer) وآلة تحقق القواعد (Rule Verification Engine) التي تقوم بتصحيح نظرية القواعد الرسمية من الأهداف والمبادئ العليا التي يحددها الخبراء البشر، بشكل دوري. تستخدم عملية التركيب نماذج لغوية ضخمة (Large Language Models) للقيام بمجموعة من المهام المبتكرة:
1. تحليل الأهداف إلى أسباب مرشحة.
2. توحيد المعاني لإزالة التكرار.
3. تحويلها إلى قواعد مرشحة من الدرجة الأولى.
4. تكوين مجموعات سببية ضرورية وكافية.

تقوم عملية التحقق بعد ذلك بإجراء التحقق من الصحة النحوية والهيكلية، والتحليل المنطقي، وفحوصات الأمان والثبات، قبل دمج القواعد المؤكدة في قاعدة المعرفة. لقد قمنا بتقييم نهجنا من خلال تنفيذ نموذج أثبات في سيناريوهين للقيادة الذاتية.

تشير النتائج إلى أن النظام، استنادًا إلى الأهداف والمبادئ التي يحددها البشر، يمكنه بنجاح استخراج مجموعات قواعد ضرورية وكافية وصياغتها كقيود منطقية. تشير هذه الاكتشافات إلى أن النظام يدعم التركيب المتزايد، والمودولاري، والقابل للتتبع للقواعد، مما يُعزز من الأسس القانونية ومبادئ الأمان.