首页|改进注意力机制方法对能源系统缺失值插补的研究

改进注意力机制方法对能源系统缺失值插补的研究

扫码查看
以自注意力机制为切入点,引入序列-序列(Seq2Seq)的方法,对Transformer模型结构进行分析,改进并建立适合高精度能源数据插补的编码-解码深度学习模型FX_trans.通过对比实验,分析出每个模型的特点与适用场景;通过消融实验,分析出各个组件对模型的影响模式,找出适合复杂能源系统缺失数据高精度的插补方法.实验结果表明,对Transformer结构的改进尤其是对LayerNorm层的改变能很好的降低误差率,在真实数据集上的实验验证了FX_trans的有效性.
Research on the missing value imputation of energy system by improved attention mechanism

self-attentive mechanismdeep learningTransformermissing value imputation

房旭

展开 >

浙江理工大学计算机科学与技术学院,浙江 杭州 310018

自注意力机制 深度学习 Transformer 缺失值插补

国家重点实验室开发基础研究课题

SKLLIM2113

2023

计算机时代
浙江省计算技术研究所 浙江省计算机学会

计算机时代

影响因子:0.411
ISSN:1006-8228
年,卷(期):2023.(7)
  • 4