首页|基于预训练模型的军事文本关系抽取方法及应用研究

基于预训练模型的军事文本关系抽取方法及应用研究

蒋怡宁

基于预训练模型的军事文本关系抽取方法及应用研究

蒋怡宁1
扫码查看

作者信息

  • 1. 哈尔滨工业大学
  • 折叠

摘要

随着信息时代的来临,人们能够越来越容易获取更多的知识,军事文本数据量同井喷式增加。为了缓解情报分析人员面对愈加庞大的数据量时分析数据的压力,越来越多的自然语言处理技术应用到军事领域以方便抽取军事文本中富有价值的信息。而在众多自然语言处理技术中,关系抽取技术作为其中较为基础的技术,对人们获取信息有着重要的作用。本文将采用基于预训练模型的关系抽取方法,对军事文本关系抽取方法及其应用进行研究。 由于军事文本关系抽取数据集较为匮乏,因此,本文首先构建了一个军事文本关系抽取数据集,该数据集包括同事、籍贯、隶属(人名)、担任、使用、位于(地点)、位于(机构)、合作、隶属(机构)、研发制造、装备、配备这12种关系类型以及负样例。后续,本文在此数据集上进行模型实验与分析。 本文以BiLSTM-Attention模型为基线模型,分别构建了BiGRU-Attention模型、BERT_EM-BiGRU模型、BERT_EM-BiGRU-Attention模型,在模型中采用实体位置标注将位置信息融入到Bert模型的输入输出中。其中,BERT_EM-BiGRU-Attention模型表现最优,说明注意力机制能够帮助模型关注其中的重要信息,模型在数据集上F1值能达到90.72%,相较于基线模型,提高了约7%。 然而,B E RT模型以字为单位进行掩码,没有考虑到字与字之间的联系。此外,输入文本语句中的局部信息也会对关系预测起着重要的作用。如何将语义信息更好地融合到模型以及如何融合加强句子中的局部信息,是亟待解决的问题。本文通过分别采用BERT_wwm、BERT_wwm_ext、RoBERTa_wwm_ext、ERNIE与BiGRU-Attention结合并进行对比实验,其中采用RoBERTa_wwm_ext预训练模型表现最佳。此外,本文还通过采用双向循环神经网络与多尺寸卷积神经网络相结合的方法,提出了RoBERTa_wwm_ext_EM-BiGRU-CNN模型,该模型在数据集上表现最优,在数据集上F1值能达到91.96%。 本文最后对军事文本关系抽取应用进行研究,采用提出的关系抽取模型对文本进行关系抽取并进行可视化展示。而后采用Neo4j数据库对动态本体图进行存储,并在基于动态本体的情报分析中分别采用PageRank算法进行动态本体压缩和DeepWalk算法进行事件关联性分析。

关键词

军事文本/关系抽取/注意力机制/双向循环神经网络

引用本文复制引用

授予学位

硕士

学科专业

计算机科学与技术

导师

徐志明

学位年度

2022

学位授予单位

哈尔滨工业大学

语种

中文

中图分类号

TP
段落导航相关论文