首页|基于预训练语言模型的机器翻译最新进展

基于预训练语言模型的机器翻译最新进展

扫码查看
自然语言处理涉及许多重要主题,其中之一是机器翻译.预训练语言模型,如BERT和GPT,是用于处理包括机器翻译在内的各种自然语言处理任务的先进方法.因此,许多研究人员使用预训练语言模型来解决机器翻译问题.为推动研究向前发展,首先概述了这一领域的最新进展,包括主要的研究问题和基于各种预训练语言模型的解决方案;其次比较了这些解决方案的动机、共性、差异和局限性;然后总结了训练这类机器翻译模型常用的数据集,以及评估这些模型的指标;最后讨论了进一步的研究方向.
Recent Progress on Machine Translation Based on Pre-trained Language Models
Natural language processing(NLP)involves many important topics,one of which is machine translation(MT).Pre-trained language models(PLMs),such as BERT and GPT,are state-of-the-art approaches for various NLP tasks including MT.Therefore,many researchers use PLMs to solve MT problems.To push the research forward,this paper provides an overview of recent advances in this field,including the main research questions and solutions based on various PLMs.We compare the motiva-tions,commonalities,differences and limitations of these solutions,and summarise the datasets commonly used to train such MT models,as well as the metrics used to evaluate them.Finally,further research directions are discussed.

Natural language processingMachine translationPre-trained language modelBERTGPT

杨滨瑕、罗旭东、孙凯丽

展开 >

广西师范大学计算机科学与工程学院/软件学院 广西桂林 541004

教育区块链与智能技术教育部重点实验室 广西桂林 541004

广西多源信息挖掘与安全重点实验室 广西桂林 541004

自然语言处理 机器翻译 预训练语言模型 BERT GPT

广西多源信息挖掘与安全重点实验室系统性研究课题

22-A-01-02

2024

计算机科学
重庆西南信息有限公司(原科技部西南信息中心)

计算机科学

CSTPCD北大核心
影响因子:0.944
ISSN:1002-137X
年,卷(期):2024.51(z1)
  • 51