摘要
随着人工智能时代的来临,人类对人机交互方式的自然化、多样化方面的要求愈加强烈。手势是人类最古老和自然的表达方式之一,研究基于手势识别的人机交互技术既十分重要又较为迫切。本文因此对两项有关关键技术即手势检测和手势分类进行了研究,具体工作主要如下: (1)首先,深入调研了国内外手势识别的研究现状,归纳总结了基于卷积神经网络的主流目标识别算法,并对比了传统的手势识别和基于卷积神经网络的手势识别算法性能差异。 (2)本文深入研究了YOLO(You Only Look Once)系列算法原理和实现机制,对YOLOv3的多尺度检测进行了改进,提出了四尺度检测的网络模型,结合FPN网络结构,提升了小目标手势的检测效果。在牛津大学人手数据集上,本文改进的YOLOv3比原始YOLOv3的AP(Average Precision)提高了3.4个百分点。识别速度超过23FPS(Frames Per Second),满足实时检测的要求。 (3)为了在移动端部署手势识别算法,论文详细地研究了轻量级分类模型MobileNet,并对其进行调整,使其能够应用于本文的手势识别任务。此外,本文制作了包括10种手势的数据集,在此数据集上采用迁移学习训练模型,使得模型精度达到94%。 (4)论文研究了安卓开发平台和移动端深度学习框架,并在Android Studio平台上完成了相关文件及功能的配置。通过编程将PC端训练的手势分类模型成功移植到安卓手机上,最终在手机端实现了手势分类功能。