计算机时代2023,Issue(7) :11-14.DOI:10.16644/j.cnki.cn33-1094/tp.2023.07.003

改进注意力机制方法对能源系统缺失值插补的研究

Research on the missing value imputation of energy system by improved attention mechanism

房旭
计算机时代2023,Issue(7) :11-14.DOI:10.16644/j.cnki.cn33-1094/tp.2023.07.003

改进注意力机制方法对能源系统缺失值插补的研究

Research on the missing value imputation of energy system by improved attention mechanism

房旭1
扫码查看

作者信息

  • 1. 浙江理工大学计算机科学与技术学院,浙江 杭州 310018
  • 折叠

摘要

以自注意力机制为切入点,引入序列-序列(Seq2Seq)的方法,对Transformer模型结构进行分析,改进并建立适合高精度能源数据插补的编码-解码深度学习模型FX_trans.通过对比实验,分析出每个模型的特点与适用场景;通过消融实验,分析出各个组件对模型的影响模式,找出适合复杂能源系统缺失数据高精度的插补方法.实验结果表明,对Transformer结构的改进尤其是对LayerNorm层的改变能很好的降低误差率,在真实数据集上的实验验证了FX_trans的有效性.

关键词

自注意力机制/深度学习/Transformer/缺失值插补

Key words

self-attentive mechanism/deep learning/Transformer/missing value imputation

引用本文复制引用

基金项目

国家重点实验室开发基础研究课题(SKLLIM2113)

出版年

2023
计算机时代
浙江省计算技术研究所 浙江省计算机学会

计算机时代

影响因子:0.411
ISSN:1006-8228
参考文献量4
段落导航相关论文