首页|多类型知识增强的微博立场检测模型

多类型知识增强的微博立场检测模型

扫码查看
针对文本立场检测中目标话题在微博文本中隐式出现以及文本语义隐含表达这2个核心问题,本文提出一种基于多类型知识增强与预训练语言模型相结合的立场检测新方法KE-BERT。该模型同时从知识图谱和百度百科中引入多类型的相关常识知识来弥补语义缺失,使用改进的预训练语言模型BERT作为编码器,然后通过卷积注意力机制对常识知识进行融合与聚焦,最后通过Softmax分类获得立场。该模型在NLPCC-2016语料库上实验的宏平均F1值达到0。803,分类性能超越现有主流模型,验证了模型的有效性。
Multi-type Knowledge-Enhanced Microblog Stance Detection Model

stance detectionknowledge enhancementBERTCNNattention

王天雨、袁嘉伟、齐芮、李洋

展开 >

东北林业大学 计算机与控制工程学院, 黑龙江 哈尔滨150040

立场检测 知识增强 BERT 卷积神经网络 注意力机制

国家自然科学基金黑龙江省自然科学基金优秀青年基金

62276059YQ2023F001

2024

广西师范大学学报(自然科学版)
广西师范大学

广西师范大学学报(自然科学版)

CSTPCD北大核心
影响因子:0.448
ISSN:1001-6600
年,卷(期):2024.42(1)
  • 34