命题信念集的非修正处理方法研究
【摘要】:知识的表示和推理被认为是人工智能符号主义流派最重要的研究内容之一而在这些研究中,逻辑则充当着重要的角色。逻辑推理是认知智能行为的典型特征,但是在推理过程中,由于不同原因产生了一些不一致信念,而这些不一致信念使知识库出现了矛盾。能够有效地对人工智能中出现的各种不同类型的知识库进行协调性维护,对于推动人工智能特别是基于知识推理的研究具有重要的意义。
非单调逻辑主要的思想就是在知识不完全的情况下进行推理。它修正了由加入新知识而引起的矛盾。然而对已有的知识进行修正,常常会出现这样的情况,即系统丢失了能够推导出来的某些原本希望得到的信息。针对以上问题,邓安生教授提出的信念非修正理论主要克服以上信念修正存在的缺点。这种方法的优势在于,不仅可以得到唯一的结果集,并且将这种方法应用在经典逻辑中时,它表现出了良好的数学性质如:一致性,封闭性,封闭性等。本文是将这种方法的应用范围进一步扩展,使得它更一般性化。
(1)将假说的语法形式限制为命题逻辑下的与或句型集;蕴涵语义采用广义归法对假说的扩充进行定义;并证明了假说的扩充具有良好的数学性质,如一致性,封闭性和外延性等。
(2)对命题逻辑下的与或句型假说的认识进程进行了研究。首先,对与或句型假说的认识进程进行了定义;其次,给出了判断与或句型假说的认识进程是否收敛的条件;最后,证明了与或句假说的认识进程具有收敛性。
(3)实现自动推理算法。首先,根据对与或句型假说使用广义归结方法进行演绎推理过程完成了归结集算法。其次,根据假说扩充的定义完成了结论集的算法。最后将两个算法合并,形成与或句型假说的非修正处理方法的自动推理算法。
本文将信念非修正理论的使用范围从命题逻辑子句集扩展到与或句集下,在对信念的语法形式限制上放宽了要求,同时广义归结方法的应用使得对问题的描述更为自然。