国家学术搜索
登录
注册
中文
EN
首页
|
基于Transformer模型的机器翻译可解释性研究
基于Transformer模型的机器翻译可解释性研究
引用
认领
扫码查看
点击上方二维码区域,可以放大扫码查看
原文链接
NETL
NSTL
万方数据
维普
中文摘要:
目前而言,神经网络这项技术已经在机器翻译任务中取得了优秀的效果,但由于端到端模型的使用,虽然从翻译性能上看网络模型能够有效对跨语言信息进行捕获,但是对其中语义信息的学习方式始终少有了解,从而导致研究人员很难从外部对模型进行分析和改进.本文通过对目前主流的Transformer神经机器翻译模型方法进行实验,通过对训练得到的词向量进行分析,对神经机器翻译模型的可解释性进行研究.
收起全部
展开查看外文信息
作者:
官凤霞
展开 >
作者单位:
中国专利信息中心 北京 100000
关键词:
机器翻译
可解释性
自然语言处理
出版年:
2020
科学与信息化
科学与信息化
ISSN:
年,卷(期):
2020.
(14)
被引量
1
参考文献量
1