摘要
随着监控网络在城市生活中的日益发展与完善,视频侦察技术在现实场景中得到广泛的应用,与此同时,行人重识别任务技术的研究也获得了显著的成果。现有的行人重识别从光照影响、遮挡程度、视角变化等多个方面探讨如何能够提取到更具有身份代表性的特征从而实现行人的精准识别。然而这些方法大多都是基于行人在短时间内不大幅度更换其衣物外观的假设,一旦出现目标行人在一段时间后自然更换衣物、或是有意改变装扮逃避捕捉等情况,传统的严重依赖外观特征的方法在该挑战下会出现明显的性能下滑。 近两年,关于长时行人重识别的研究主要关注于提取具有身份不变性的行人特征,包括脸部特征、身体形态/轮廓特征等。但这些方法忽略了想要得到具有判别性的身份特征,需要足够的穿着丰富的行人图像进行训练。不同于短时的行人重识别,在长时的场景下,获取大量的更换外观的行人数据是非常昂贵且耗时的,导致现有的长时重识别数据集的数据量是不丰富且样本空间是稀疏的。 由此,本文从以下方面展开长时行人重识别任务的研究: (1)针对数据量有限、样本空间稀疏问题,本文提出了基于语义感知的数据增广方法。该增广方式大幅度节省人力财力且有效扩增训练数据量,丰富行人数据集中的衣物样式,在降低模型对显著衣物区域感知敏感性的同时,引导模型关注衣物区域外的行人判别性特征。 (2)针对分布内样本稀疏、分布外样本缺失问题,本文提出了基于分布互补性的重识别方法。该方法从互补的角度出发,在补足分布内样本空间的基础上,设计不掺杂额外干扰信息的分布外数据样本,填充与分布内空间互补的分布外空间,引导模型更好地学习行人类别的边界信息。 (3)针对换衣场景下行人外观变化较大的问题,本文提出了基于自适应注意力的多粒度特征学习方法。从提取多样化行人特征的角度,自适应地探索不同尺度的行人信息,从像素级、部件级、对象级引导模型获取行人独特性信息。 为了验证提出方法的广泛有效性,本文在两个公开的长时行人重识别数据集LTCC-ReID、PRCC-reID,以及两个广泛应用的短时行人重识别数据集Market-1501、DukeMTMC-reID上进行丰富的实验。实验结果表明,本文所提出的方法能有效缓解长时重识别中衣物变化所带来的挑战,对比现有的长时行人重识别中的其他方法,本文提出的方法表现更加突出、更具有竞争力。