摘要
近年来,随着深度学习技术的发展,知识图谱问答任务取得较大进展,单跳问题的问答较为简单,因为它只涉及一个三元组,但当问题变得复杂,涉及多个实体的比较和推理时,机器尚不能很好地解答。如何让机器像人类一样学会推理,从而处理复杂问题,是当前的一个研究热点和难点。基于上述问题,该论文使用基于推理路径生成和阅读理解方法以及多任务学习方法来实现知识库问答,研究内容分为以下三个方面: 1.基于推理路径生成的知识库问答方法研究。将知识库问答当作推理路径生成来替代传统的流水线式问答,推理路径指的是一种在知识库中的查询推理路径,本文首先使用传统神经网络方法将答案转化到与问题向量同一个维度的向量进行问答,之后使用预训练的Transformer模型进行研究。通过将问题和推理路径进行拼接输入到预训练模型进行训练,省去了传统流水线式知识库问答的繁琐环节。 2.基于阅读理解的知识库问答方法研究。对于推理路径生成方法,我们发现有一些生成的推理路径其中有少量错误,导致无法从知识库中找到答案,基于上述问题,我们在数据集上进行了重新构造,将原本的问答数据格式构造为阅读理解格式,即用生成的推理路径和数据集中的候选选项信息,重新构造出一个阅读理解问题的上下文,并且对数据集不同的重新构造方式对结果影响的对比也进行实验。 3.基于多任务学习的知识库问答方法研究。根据以上两个任务我们得到了两种类型的模型:基于推理路径的生成模型以及基于阅读理解的问答模型,本文对两种模型进行了多任务学习,利用相关任务中包含的有用信息来提高所有任务的泛化性能,分别实验了三种不同多任务学习方式,在任务之间实现更好的知识共享,提升了模型的泛化效果和表示能力,降低每个任务过度拟合的风险。