摘要
显著目标检测旨在模拟人类视觉注意机制,识别和定位图像中最具吸引力的目标区域,在图像识别、目标跟踪、图像质量评价、相机对焦等视觉任务中得到了广泛的应用。近年来,基于RGB图像的显著目标检测获得了很大的发展,但在复杂背景条件下检测效果仍然不佳。随着RGBD传感器技术的发展,在捕获场景中RGB信息的同时能够获取相应的深度信息。深度信息为显著目标检测提供了更多的空间线索,增强模型对目标和背景的辨别能力,提高了模型的性能。现有的显著目标检测模型大多基于深度卷积网络,需要大量数据的驱动。然而,RGBD数据集规模过小不利于深度模型的学习,并且模型的参数量大、占用计算资源多,无法达到实际应用标准。因此,提升基于卷积网络显著目标检测模型对小规模RGBD数据的学习能力以及对模型进行轻量化改造具有重要的研究意义。本文的主要工作如下: (1)融合深度信息的显著目标检测算法研究。我们使用迁移学习方法,将大规模RGB数据中学习到的知识迁移到基于RGBD数据的显著目标检测任务中,发现模型的学习能力增强;通过对深度融合网络的分析,发现分层特征融合的方式更有利于RGB和深度信息的互补表达,提高了模型检测精度。因此,我们结合迁移学习方法,提出了基于分层特征融合的RGBD显著目标检测模型。 (2)RGBD显著目标检测模型轻量化研究。我们用深度可分离卷积替换分层特征融合的RGBD显著目标检测模型的标准卷积,发现模型的参数量大幅降低;在对残差连接进行研究时,发现利用卷积输入和输出的差值特征辅助主干网络,提高了模型的细节表达能力;通过对并行多尺度结构的分析,发现该结构能够增加图像特征表达的多样性。因此,在深度可分离卷积的基础上,我们设计了新的残差连接,提出了并行多尺度残差结构的RGBD显著目标检测轻量化模型。