首页|基于深度学习的姿态鲁棒性人脸识别算法研究

基于深度学习的姿态鲁棒性人脸识别算法研究

周琳

基于深度学习的姿态鲁棒性人脸识别算法研究

周琳1
扫码查看

作者信息

  • 1. 西安电子科技大学
  • 折叠

摘要

近年来,随着深度学习理论的发展,人工智能技术不断演进并取得诸多成就。作为一种非接触式的生物特征识别技术,人脸识别目前已广泛应用于金融安全、公共安防、教育等多个领域。然而在非限制性的实际场景中,光照、表情、姿态变化等因素通常会导致人脸识别准确率急剧下降,其中,姿态变化直接影响人脸图像的对称性和完整性,成为人脸识别技术实用化的主要瓶颈。本论文针对非限制性环境下多姿态人脸识别性能明显下降的问题,研究并实现了基于深度学习的姿态鲁棒性人脸识别算法。 首先,本论文研究了面部姿态估计任务,即对三个面部偏转角度:偏航角yaw、俯仰角pitch和翻滚角roll进行预测。为了实现面部偏转角度的预测,本论文将该问题建模为分类-回归问题,并从特征提取和特征映射两方面提升面部姿态估计算法的性能:首先构建基于注意力机制的面部姿态特征学习网络,通过通道和空间两种注意力模块的结合促使网络学习对角度分类更有益的特征;然后根据不同分类粒度对角度预测的影响,提出基于多粒度分类-回归的面部偏转角度预测算法,该算法通过结合不同粒度的分类提升网络对面部偏转角度进行分类的准确性;最后,构建了基于注意力机制的多粒度分类-回归网络MgCrANet实现面部姿态估计任务。实验结果表明,本论文提出的MgCrANet模型在AFLW2000数据集上,对于三个面部偏转角度预测的平均绝对误差为5.5263,与面部姿态估计算法HopeNet相比,误差减小了0.6287。 接下来,鉴于人脸识别网络低层特征中包含更多的姿态信息,本论文提出高低层特征融合的算法实现姿态鲁棒性人脸识别:在特征融合过程中,通过对低层特征引入语义信息实现特征增强,以提高特征融合的效率;随后,考虑到不同面部姿态变化的具体情况,提出基于面部偏转角度的深度特征融合算法,将MgCrANet模型预测得到的面部偏转角度yaw进行非线性映射得到的系数作为低层特征的融合因子,实现根据面部姿态变化程度自动调整低层特征的融合权重,提升人脸识别网络对具有不同姿态人脸的表征能力,从而提高多姿态人脸识别的性能;最后,在本论文提出算法的基础上,构建了深度特征融合网络DFFNet实现姿态鲁棒性人脸识别。实验结果表明,本论文提出的算法可以提高人脸验证准确率,在跨姿态人脸数据集CFP_FP上,与DCNN和TripletEmbedding算法相比,准确率分别提高了5.01%和0.74%。 本论文研究并实现的姿态鲁棒性人脸识别算法可广泛用于视频监控等非限制性的场景中,例如室外公共场所的无感知人脸识别等。

关键词

人脸识别/深度学习/面部姿态估计/注意力机制/特征融合

引用本文复制引用

授予学位

硕士

学科专业

信息与通信工程;通信与信息系统

导师

宋彬

学位年度

2020

学位授予单位

西安电子科技大学

语种

中文

中图分类号

TP
段落导航相关论文