首页|基于注意力与同指信息的对话级关系抽取

基于注意力与同指信息的对话级关系抽取

扫码查看
与传统的关系抽取任务相比,对话级关系抽取任务具有语言随意、信息密度低、人称代词丰富的特点.基于此,该文提出了一种基于注意力和同指信息的对话级关系抽取模型.模型采用 TOD-BERT(Task-Oriented Dialogue BERT)和BERT预训练语言模型增强对话文本表示,通过注意力机制建模词与各种关系之间的相互影响,使模型能更多地关注有益信息.另外,该文提出的模型还融合了与人称代词相关的同指信息以丰富实体的表示.作者在对话级关系抽取数据集DialogRE上验证所提出模型的性能.结果表明,该模型在 DialogRE 测试集上的F1 值达到了 63.77%,较之于多个基线模型有明显提升.
Dialogue-level Relation Extraction Based on Attention and Coreference
The dialog-level relation extraction is characterized by casual language,low information density and abun-dant personal pronouns.This paper proposes an end-to-end dialogue relation extraction model via TOD-BERT(Task-Oriented Dialogue BERT)pre-trained language model.It adopts the attention mechanism to capture the inter-action between different words and different relations.Besides,the co-reference information related to personal pro-nouns is applied to enrich the entity features.Validated on DialogRE,a new dialog-level relational extraction dataset,the proposed model reaches 63.77 F1 score,which is significantly better than the baseline models.

relation extractionattention mechanismco-reference informationdialogue

周孟佳、李霏、姬东鸿

展开 >

武汉大学 国家网络安全学院,湖北 武汉 430072

关系抽取 注意力机制 同指信息 对话

国家自然科学基金国家重点研究与发展项目教育部研究基金

617723782017YFC120050018JZD015

2024

中文信息学报
中国中文信息学会,中国科学院软件研究所

中文信息学报

CSTPCDCHSSCD北大核心
影响因子:0.8
ISSN:1003-0077
年,卷(期):2024.38(1)
  • 30