摘要
特征脸算法是基于脸部表征的常用人脸辨识方法之一.当训练数据量较大时,不管是训练还是测试模块都非常耗时.基于此,采用CUDA并行运算架构实现GPU加速特征脸算法.针对GPU并行运算的效果取决于硬件规格、算法本身的复杂度和可并行性,以及程序开发者使用GPU的并行化方式等因素,文中首先提出在特征脸算法训练阶段的计算平均值、zero mean、正规化特征脸等计算步骤以及测试阶段的投影到特征脸空间、计算欧几里得距离等计算步骤使用GPU优化加速;其次在相应计算步骤采用不同的并行化加速方法并做出效能评估.实验结果表明,在人脸训练数据量在320~1920的范围内,各计算步骤加速效果明显.与Intel i7-5960X相比,GTX1060显示适配器在训练模块中可达到平均约71.7倍的加速效果,在测试模块中可达到平均约34.1倍的加速效果.