首页期刊导航|中国图象图形学报
期刊信息/Journal information
中国图象图形学报
中国图象图形学报

李小文

月刊

1006-8961

jig@irsa.ac.cn

010-64807995 8261442

100101

北京9718信箱

中国图象图形学报/Journal Journal of Image and GraphicsCSCD北大核心CSTPCD
查看更多>>本刊是集计算机图象图形高科技理论与应用研究成果、成果产品化与商情动态于一体的综合性学术期刊。是核心期刊、权威性杂志。作为中国图象图形学学会的会刊,利用学会在国内外广泛的科技信息渠道、全方位多层面的学科交叉应用,积极向产业界宣传科技成果,热心向科技界推荐最新产品。
正式出版
收录年代

    三维视觉与智能图形专刊简介

    陈宝权虞晶怡周昆郭裕兰...
    289-291页

    基于深度学习的单目深度估计技术综述

    宋巍朱孟飞张明华赵丹枫...
    292-328页
    查看更多>>摘要:场景的深度估计问题是计算机视觉领域中的经典问题之一,也是3维重建和图像合成等应用中的一个重要环节.基于深度学习的单目深度估计技术高速发展,各种网络结构相继提出.本文对基于深度学习的单目深度估计技术最新进展进行了综述,回顾了基于监督学习和基于无监督学习方法的发展历程.重点关注单目深度估计的优化思路及其在深度学习网络结构中的表现,将监督学习方法分为多尺度特征融合的方法、结合条件随机场(conditional random field,CRF)的方法、基于序数关系的方法、结合多元图像信息的方法和其他方法等5类;将无监督学习方法分为基于立体视觉的方法、基于运动恢复结构(structure from motion,SfM)的方法、结合对抗性网络的方法、基于序数关系的方法和结合不确定性的方法等5类.此外,还介绍了单目深度估计任务中常用的数据集和评价指标,并对目前基于深度学习的单目深度估计技术在精确度、泛化性、应用场景和无监督网络中不确定性研究等方面的现状和面临的挑战进行了讨论,为相关领域的研究人员提供一个比较全面的参考.

    深度学习单目深度估计监督学习无监督学习多尺度特征融合序数关系立体视觉

    深度学习刚性点云配准前沿进展

    秦红星刘镇涛谭博元
    329-348页
    查看更多>>摘要:随着3维采集设备的日渐推广,点云配准在越来越多的领域得到应用.然而,传统方法在低重叠、大量噪声、多异常点和大场景等方面表现不佳,这限制了点云配准在真实场景中的应用.面对传统方法的局限性,结合深度学习技术的点云配准方法开始出现,本文将这种方法称为深度点云配准,并对深度点云配准方法研究进展予以综述.首先,根据有无对应关系对目前的深度学习点云配准方法进行区分,分为无对应关系配准和基于对应关系的点云配准.针对基于对应关系的配准,根据各类方法的主要功能进行详细的分类与总结,其中包括几何特征提取、关键点检测、点对离群值去除、姿态估计和端到端配准,并重点介绍了最新出现的一些方法;针对无对应配准方法,详细介绍了各类方法的特点并对无对应与有对应方法的特点进行了总结.在性能评估中,首先对现有主要的评价指标进行了详细的分类与总结,给出其适用场景.对于真实数据集,给出了特征匹配、点对离群值去除的对比数据,并进行了总结.在合成数据集中,给出了相关方法在部分重叠、实时性和全局配准场景下的对比数据.最后讨论了当前深度点云配准面临的挑战并给出对未来研究方向的展望.

    点云配准深度学习无对应配准端到端配准对应关系几何特征提取离群值去除综述

    三维点云配准方法研究进展

    李建微占家旺
    349-367页
    查看更多>>摘要:点云是一种3维表示方式,在广泛应用的同时产生了对点云处理的诸多挑战.其中,点云配准是一项非常值得研究的工作.点云配准旨在将多个点云正确配准到同一个坐标系下,形成更完整的点云.点云配准要应对点云非结构化、不均匀和噪声等干扰,要以更短的时间消耗达到更高的精度,时间消耗和精度往往是矛盾的,但在一定程度上优化是有可能的.点云配准广泛应用于3维重建、参数评估、定位和姿态估计等领域,在自动驾驶、机器人和增强现实等新兴应用上也有点云配准技术的参与.为此,研究者开发了多样巧妙的点云配准方法.本文梳理了一些比较有代表性的点云配准方法并进行分类总结,对比相关工作,尽量覆盖点云配准的各种形式,并对一些方法的细节加以分析介绍.将现有方法归纳为非学习方法和基于学习的方法进行分析.非学习方法分为经典方法和基于特征的方法;基于学习的方法分为结合了非学习方法的部分学习方法和直接的端到端学习方法.本文分别介绍了各类方法的典型算法,并对比总结算法特性,展望了点云配准技术的未来研究方向.

    点云配准特征深度学习综述

    多源融合SLAM的现状与挑战

    王金科左星星赵祥瑞吕佳俊...
    368-389页
    查看更多>>摘要:同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在过去几十年中取得了惊人的进步,并在现实生活中实现了大规模的应用.由于精度和鲁棒性的不足,以及场景的复杂性,使用单一传感器(如相机、激光雷达)的SLAM系统往往无法适应目标需求,故研究者们逐步探索并改进多源融合的SLAM解决方案.本文从3个层面回顾总结该领域的现有方法:1)多传感器融合(由两种及以上传感器组成的混合系统,如相机、激光雷达和惯性测量单元,可分为松耦合、紧耦合);2)多特征基元融合(点、线、面、其他高维几何特征等与直接法相结合);3)多维度信息融合(几何、语义、物理信息和深度神经网络的推理信息等相融合).惯性测量单元和视觉、激光雷达的融合可以解决视觉里程计的漂移和尺度丢失问题,提高系统在非结构化或退化场景中的鲁棒性.此外,不同几何特征基元的融合,可以大大减少有效约束的程度,并可为自主导航任务提供更多的有用信息.另外,数据驱动下的基于深度学习的策略为SLAM系统开辟了新的道路.监督学习、无监督学习和混合监督学习等逐渐应用于SLAM系统的各个模块,如相对姿势估计、地图表示、闭环检测和后端优化等.学习方法与传统方法的结合将是提升SLAM系统性能的有效途径.本文分别对上述多源融合SLAM方法进行分析归纳,并指出其面临的挑战及未来发展方向.

    同时定位与地图构建(SLAM)多源融合多传感器融合多特征基元融合多维度信息融合

    深度学习单目深度估计研究进展

    罗会兰周逸风
    390-403页
    查看更多>>摘要:单目深度估计是从单幅图像中获取场景深度信息的重要技术,在智能汽车和机器人定位等领域应用广泛,具有重要的研究价值.随着深度学习技术的发展,涌现出许多基于深度学习的单目深度估计研究,单目深度估计性能也取得了很大进展.本文按照单目深度估计模型采用的训练数据的类型,从3个方面综述了近年来基于深度学习的单目深度估计方法:基于单图像训练的模型、基于多图像训练的模型和基于辅助信息优化训练的单目深度估计模型.同时,本文在综述了单目深度估计研究常用数据集和性能指标基础上,对经典的单目深度估计模型进行了性能比较分析.以单幅图像作为训练数据的模型具有网络结构简单的特点,但泛化性能较差.采用多图像训练的深度估计网络有更强的泛化性,但网络的参数量大、网络收敛速度慢、训练耗时长.引入辅助信息的深度估计网络的深度估计精度得到了进一步提升,但辅助信息的引入会造成网络结构复杂、收敛速度慢等问题.单目深度估计研究还存在许多的难题和挑战.利用多图像输入中包含的潜在信息和特定领域的约束信息,来提高单目深度估计的性能,逐渐成为了单目深度估计研究的趋势.

    单目视觉场景感知深度学习3维重建深度估计

    面向本征图像分解的高质量渲染数据集与非局部卷积网络

    王玉洁樊庆楠李坤陈冬冬...
    404-420页
    查看更多>>摘要:目的 本征图像分解是计算视觉和图形学领域的一个基本问题,旨在将图像中场景的纹理和光照成分分离开来.基于深度学习的本征图像分解方法受限于现有的数据集,存在分解结果过度平滑、在真实数据泛化能力较差等问题.方法 首先设计基于图卷积的模块,显式地考虑图像中的非局部信息.同时,为了使训练的网络可以处理更复杂的光照情况,渲染了高质量的合成数据集.此外,引入了一个基于神经网络的反照率图像优化模块,提升获得的反照率图像的局部平滑性.结果 将不同方法在所提的数据集上训练,相比之前合成数据集CGIntrinsics进行训练的结果,在IIW(intrinsic images in the wild)测试数据集的平均WHDR(weighted human disagreement rate)降低了7.29%,在SAW(shading annotations in the wild)测试集的AP(average precision)指标上提升了2.74%.同时,所提出的基于图卷积的神经网络,在IIW、SAW数据集上均取得了较好的结果,在视觉结果上显著优于此前的方法.此外,利用本文算法得到的本征结果,在重光照、纹理编辑和光照编辑等图像编辑任务上,取得了更优的结果.结论 所提出的数据集质量更高,有利于基于神经网络的本征分解模型的训练.同时,提出的本征分解模型由于显式地结合了非局部先验,得到了更优的本征分解结果,并通过一系列应用任务进一步验证了结果.

    图像处理图像理解本征图像分解图卷积网络(GCN)合成数据集

    高效鲁棒三维结构化重建

    潘珊珊吕佳辉方昊黄惠...
    421-434页
    查看更多>>摘要:目的 结构化重建,即从离散点云或者原始三角网格中提取几何平面并将其拼接成紧凑的参数化3维模型,一直是计算机图形学领域中极具挑战性的问题.现有方法通常面临着两个挑战.一是传统的形状检测方法通常只考虑物体的局部特征,无法保证整体结果的准确性.二是现有的形状拼接算法往往受限于计算复杂度,从而只能处理由一百多个几何平面组成的物体,极大地限制了算法的应用场景.针对这些问题,提出了一种快速、鲁棒的结构化重建算法以自动地生成轻量的多边形网格.方法 提出了一种多源区域增长算法,全局地从原始3维数据中提取特征平面.该策略保证了原始数据可以被正确地聚类到所属的平面区域.为了减轻几何平面分割3维空间带来的计算负担,采用了一种基于二叉空间分割树的结构将3维空间切分为凸多面体.提出了一种基于光线射击的马尔可夫能量方程以提取水密、无自相交的多边形网格.结果 实验结果表明,本文方法可以在没有并行化方案的标准计算机上处理由上万个几何平面组成的物体.与传统的全相交分割相比,本文方法得到的多面体数目和运行时间都降低了至少两个数量级,总耗时可控制在5s/万点以内.此外,模型化简前后的均方根误差平均控制在1%以内,面片化简比例控制在1.5%以内.结论 本文方法在计算效率以及结果的准确性上均取得了较大的进步,能够恢复有部分缺陷的表面模型,保留重要结构细节,在复杂性和保真度之间提供了一种较好的方案.

    几何建模表面重建形状检测二叉空间分割(BSP)马尔可夫随机场(MRF)

    结合LiDAR与RGB数据构建稠密深度图的多阶段指导网络

    贾迪王子滔李宇扬金志楊...
    435-446页
    查看更多>>摘要:目的 使用单幅RGB图像引导稀疏激光雷达(light detection and ranging,LiDAR)点云构建稠密深度图已逐渐成为研究热点,然而现有方法在构建场景深度信息时,目标边缘处的深度依然存在模糊的问题,影响3维重建与摄影测量的准确性.为此,本文提出一种基于多阶段指导网络的稠密深度图构建方法.方法 多阶段指导网络由指导信息引导路径和RGB信息引导路径构成.在指导信息引导路径上,通过ERF(efficient residual factorized)网络融合稀疏激光雷达点云和RGB数据提取前期指导信息,采用指导信息处理模块融合稀疏深度和前期指导信息,并将融合后的信息通过双线性插值的方式构建出表面法线,将多模态信息融合指导模块提取的中期指导信息和表面法线信息输入到ERF网络中,提取可用于引导稀疏深度稠密化的后期指导信息,以此构建该路径上的稠密深度图;在RGB信息引导路径上,通过前期指导信息引导融合稀疏深度与RGB信息,通过多模态信息融合指导模块获得该路径上的稠密深度图,采用精细化模块减少该稠密深度图中的误差信息.融合上述两条路径得到的结果,获得最终稠密深度图.结果 通过KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)深度估计数据集训练多阶段指导网络,将测试数据结果提交到KITTI官方评估服务器,评估指标中,均方根误差值和反演深度的均方根误差分别为768.35和2.40,均低于对比方法,且本文方法在物体边缘和细节处的构建精度更高.结论 本文给出的多阶段指导网络可以更好地提高稠密深度图构建准确率,弥补激光雷达点云稀疏的缺陷,实验结果验证了本文方法的有效性.

    深度估计深度学习LiDAR多模态数据融合图像处理

    多尺度相似性迭代查找的可靠双目视差估计

    晏敏王军政李静
    447-460页
    查看更多>>摘要:目的 双目视差估计可以实现稠密的深度估计,因而具有重要研究价值.而视差估计和光流估计两个任务之间具有相似性,在两种任务之间可以互相借鉴并启迪新算法.受光流估计高效算法RAFT(recurrent all-pairs field transforms)的启发,本文提出采用单、双边多尺度相似性迭代查找的方法实现高精度的双目视差估计.针对方法在不同区域估计精度和置信度不一致的问题,提出了左右图像视差估计一致性检测提取可靠估计区域的方法.方法 采用金字塔池化模块、跳层连接和残差结构的特征网络提取具有强表征能力的表示向量,采用向量内积表示像素间的相似性,通过平均池化得到多尺度的相似量,第0次迭代集成初始视差量,根据初始视差单方向向左查找多尺度的相似性得到的大视野相似量和上下文3种信息,而其他次迭代集成更新的视差估计量,根据估计视差双向查找多尺度的相似性得到的大视野相似量和上下文3种信息,集成信息通过第0次更新的卷积循环神经网络和其他次更新共享的卷积循环神经网络迭代输出视差的更新量,多次迭代得到最终的视差估计值.之后,通过对输入左、右图像反序和左右翻转估计右图视差,对比左、右图匹配点视差差值的绝对值和给定阈值之差判断视差估计置信度,从而实现可靠区域提取.结果 本文方法在Sceneflow数据集上得到了与先进方法相当的精度,平均误差只有0.84像素,并且推理时间有相对优势,可以和精度之间通过控制迭代次数灵活平衡.可靠区域提取后,Sceneflow数据集上误差进一步减小到了历史最佳值0.21像素,在KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)双目测试数据集上,估计区域评估指标最优.结论 本文方法对于双目视差估计具有优越性能,可靠区域提取方法能高效提取高精度估计区域,极大地提升了估计区域的可靠性.

    双目视差估计遮挡卷积循环神经网络深度学习监督学习