基于注意力与同指信息的对话级关系抽取
Dialogue-level Relation Extraction Based on Attention and Coreference
周孟佳 1李霏 1姬东鸿1
作者信息
- 1. 武汉大学 国家网络安全学院,湖北 武汉 430072
- 折叠
摘要
与传统的关系抽取任务相比,对话级关系抽取任务具有语言随意、信息密度低、人称代词丰富的特点.基于此,该文提出了一种基于注意力和同指信息的对话级关系抽取模型.模型采用 TOD-BERT(Task-Oriented Dialogue BERT)和BERT预训练语言模型增强对话文本表示,通过注意力机制建模词与各种关系之间的相互影响,使模型能更多地关注有益信息.另外,该文提出的模型还融合了与人称代词相关的同指信息以丰富实体的表示.作者在对话级关系抽取数据集DialogRE上验证所提出模型的性能.结果表明,该模型在 DialogRE 测试集上的F1 值达到了 63.77%,较之于多个基线模型有明显提升.
Abstract
The dialog-level relation extraction is characterized by casual language,low information density and abun-dant personal pronouns.This paper proposes an end-to-end dialogue relation extraction model via TOD-BERT(Task-Oriented Dialogue BERT)pre-trained language model.It adopts the attention mechanism to capture the inter-action between different words and different relations.Besides,the co-reference information related to personal pro-nouns is applied to enrich the entity features.Validated on DialogRE,a new dialog-level relational extraction dataset,the proposed model reaches 63.77 F1 score,which is significantly better than the baseline models.
关键词
关系抽取/注意力机制/同指信息/对话Key words
relation extraction/attention mechanism/co-reference information/dialogue引用本文复制引用
基金项目
国家自然科学基金(61772378)
国家重点研究与发展项目(2017YFC1200500)
教育部研究基金(18JZD015)
出版年
2024