首页期刊导航|计算机辅助设计与图形学学报
期刊信息/Journal information
计算机辅助设计与图形学学报
计算机辅助设计与图形学学报

吴恩华

月刊

1003-9775

jcad@ict.ac.cn

010-62562491;62600342

100190

北京2704信箱

计算机辅助设计与图形学学报/Journal Journal of Computer-Aided Design & Computer GraphicsCSCD北大核心CSTPCDEI
查看更多>>本刊创刊于1989年,是我国CAD和计算机图形学领域第一个公开出版的学术刊物,原为季刊,1996年起改为双月刊,从2000年起改为月刊。 该刊以快速传播CAD与计算机图形学领域的知识与经验为目的,刊登有创新的学术论文,报导最新科研成果和学术动态,及时反映该领域发展水平与发展方向。 该刊面向全国,聘请了我国CAD和计算机图形学学术界的知名学者、专家参加刊物的编委会,具有权威性和代表性。 读者对象为从事CAD和计算机图形及其他有关学科的科研、工程技术人员及高等院校师生。 被《中文核心期刊要目总览》第三版定为我国计算技术、计算机类核心期刊;被中国科学技术信息研究所接受为中国科技论文统计与分析用刊;被中国科学引文数据库、《中国学术期刊文摘》、《电子科技文摘》收录。从1996年起,每期由清华大学国家光盘工程中心全文收录到《中国学术期刊(光盘版)》中。从1996年开始被美国的工程索引(EI)收录。从1999年起被英国SA,INSPEC(Computer & Control Abstracts)及俄罗斯文摘杂志收录。
正式出版
收录年代

    RGB-D目标跟踪综述

    欧洲应舸张大伟郑忠龙...
    1673-1690页
    查看更多>>摘要:近年来,随着深度学习的不断发展,已有许多基于深度学习的RGB目标跟踪算法被提出且取得较为显著的性能提升,但纯粹依靠可见光进行跟踪的算法在光照变化、背景干扰、严重遮挡等复杂场景下仍难以实现鲁棒跟踪。为应对高难度场景下的挑战,实现高效鲁棒的目标跟踪,多模态目标跟踪应运而生。以RGB-D目标跟踪算法为主,详细列举了当前可见光-深度的多模态目标跟踪算法,对各类算法的优缺点进行分析和比较;并介绍了主流的RGB-D 目标跟踪数据集,挑战赛及其评价指标;最后总结了 RGB-D 目标跟踪技术的发展趋势和挑战,并展望其未来的发展方向:特殊场景RGB-D数据集建设、全新RGB-D 目标跟踪评估范式和有效模态融合的RGB-D模型范式。

    目标跟踪多模态可见光-深度特征融合

    结合双线性特征融合与自适应重检测的目标跟踪方法

    闫河张唯刘宇涵黄奎霖...
    1691-1699页
    查看更多>>摘要:针对SiamRPN目标跟踪方法用一阶浅层网络提取特征,难以精确地获得丰富的特征信息;缺少遮挡判别机制,易导致目标漂移或跟丢的问题,提出一种双线性特征融合与自适应重检测相结合的孪生网络目标跟踪方法。使用改进的ResNet50提取序列特征,对最后3个残差块提取的特征进行双线性级联融合,获得二阶特征信息,并通过区域候选网络输出目标框;计算目标框对应的平均峰值相关能量,判断目标是否被遮挡;针对遮挡,构建以上一帧跟踪结果为中心的邻近检测窗口,结合权重顺序选择与随机选择的方式选取窗口,对目标重检测。对比OTB100和UAV123数据集上的实验结果表明,所提方法跟踪成功率分别达到0。894和0。800,跟踪精确度分别达到0。669和0。605,同时具有较好的跟踪时效性。

    目标跟踪孪生网络抗遮挡重检测特征融合

    非对称的分层特征融合的RGBT跟踪网络

    吴习惠李婷葛洪伟
    1700-1709页
    查看更多>>摘要:为了解决可见光图像和热红外图像由于成像原理不同而导致的模态存在异质性的问题,提出一种非对称的分层特征融合的RGBT跟踪网络。首先通过双流网络分别提取可见光和热红外的特征;然后通过模态特征提取模块挖掘不同模态特征,并对获得的特征进行自适应聚合,以获得有利于增强可见光模态的特征;最后将各层获得的聚合特征与双流网络获得的可见光特征进行增强融合,获得更具有鲁棒性的特征。在GTOT,RGBT234和LasHeR数据集上的实验结果表明,所提网络的跟踪精度(PR)和成功率(SR)分别达到92。2%/77。2%,82。9%/61。1%和52。7%/40。3%,与目前主流的RGBT目标跟踪网络相比,PR和SR均有所提高,验证了该网络的有效性。

    非对称结构分层特征融合RGBT目标跟踪Transformer

    多辅助任务下的单幅深度图像修复

    范志伟李滔罗松宁周群兵...
    1710-1718页
    查看更多>>摘要:深度图像修复是由稀疏深度图像恢复出密集深度图像。针对目前单幅深度图像修复算法存在边界模糊、语义信息缺失等问题,提出一种多辅助任务下的单幅深度图像修复算法。采用由粗到精的修复模式,粗修复网络采用核选择卷积有效地提取输入信息,精修复网络由深度图像修复主任务和相关辅助任务构成;灰度重建辅助任务旨在从灰度图像中学习到丰富的语义信息,并由特征融合分支将所学语义信息传递到深度图像修复主任务,有效地解决深度图像修复中细节缺失、结构混乱等问题;边界预测辅助任务侧重于提高密集深度图像的边界准确性和清晰度;深度图像修复主分支和灰度重建辅助分支间的特征融合分支中,使用空间和通道注意力机制实现多任务特征的自适应融合,增强相关特征和抑制无关特征。在NYUv2数据集上的实验结果表明,所提算法的修复视觉效果良好,在采样点数量为200时,客观评价指标RMSE和REL分别取得0。199和0。033的结果,均优于对比算法。

    深度图像修复辅助任务特征融合注意力机制

    使用频域卷积的端到端图像数字盲水印方法

    张志伟王晗崔凯元
    1719-1727页
    查看更多>>摘要:传统数字水印方法对裁剪、噪声、形变等攻击具有强鲁棒性,但很难抵御真实场景中由图像压缩编码和移动摄像设备翻拍引起的水印信息丢失。为了增强水印的鲁棒性,利用离散余弦变换频谱中某些频段对人眼的掩蔽特性,以及卷积神经网络对一些不可见扰动的学习能力,提出一种基于频域卷积的端到端图像数字盲水印方法。首先使用卷积神经网络构建编码网络,将水印信息嵌入到图像频域中;其次构建与编码网络对称的解码网络,从图像频域中提取水印信息;最后对编码和解码网络进行联合训练,并监督编码网络的图像质量和解码网络的水印提取效果。在MIRFLICKR数据集上的实验结果表明,所提方法对显示器下翻拍攻击的PSNR,SSIM,LPIPS和BPP分别达到36。29 dB,0。951,3。11×10-3,2。44×10-3和93。1%,与其他基准方法相比具有一定的优势,证明了该方法的有效性。

    图像数字水印离散余弦变换鲁棒水印卷积神经网络

    基于重加权数据项的边缘保持图像平滑算法

    龙建武王雪梅张臣
    1728-1738页
    查看更多>>摘要:为了避免弱梯度边缘信息被平滑、噪声纹理信息因具有与结构像素相似的强梯度特点而被保留的问题,提出一种基于重加权数据项的边缘保持图像平滑算法。该算法将数据项拆分为2项,首先通过计算图像中当前像素与局部邻域像素间的相似性初步判断待处理像素是否位于结构区域;然后用分项后的2个权重分别约束待处理像素与原图相似,以及待处理像素与滤波结果相似,实现结构信息的保留和非结构信息的平滑。在基于L2,L0和L1的平滑算法实例中与其他算法进行实验,并使用PSNR和SSIM评价指标在BSD300数据集上对各种算法进行评估,结果表明,所提算法不仅能保持弱梯度结构信息,还能产生优于原始算法的图像平滑效果;该算法有较强的实用性,能适用于大部分全局优化算法。

    重加权数据项Lp范数边缘保持图像平滑

    基于Transformer的东巴画超分辨率重建

    毕聪钱文华普园媛
    1739-1749页
    查看更多>>摘要:纳西族东巴画线条繁杂、色彩丰富,直接采用现有的方法对真实场景下的低分辨率东巴画图像进行超分辨率重建,存在线条不够清晰、局部区域过度平滑、缺少细节等问题。为了解决上述问题,提出一种基于Transformer的东巴画超分辨率重建方法。首先,生成器采用卷积层和残差密集Swin Transformer块提取东巴画图像的浅层和深层特征,并通过重建模块融合特征,重建出高分辨率图像;其次,判别器采用U-Net评估每个像素的真实性,增强重建图像的纹理细节;最后,采用像素损失、感知损失和对抗损失训练生成器生成自然清晰的东巴画图像。在自建的东巴画测试集上与其他8种方法进行对比,结果表明,所提方法的重建结果具有更好的视觉质量;在放大2倍、4倍和8倍时,平均PIQE分别为22。7493,20。2649和18。3780,平均ENIQA分别为0。0917,0。0639和0。0684,均优于其他方法;所提方法具有良好的扩展性,在自然图像上进行实验也能获得更清晰的结果。

    东巴画超分辨率SwinTransformer通道注意力

    多级多尺神经网络自搜索的焊缝缺陷语义分割

    张睿李吉
    1750-1760页
    查看更多>>摘要:为进一步提高焊缝缺陷X-ray底片低质影像语义分割精度,降低人工设计网络主观影响及耗时等问题,提出一种多级多尺神经网络自搜索的焊缝缺陷语义分割方法。通过对多尺度轻量化候选操作、通道注意力机制和多层级动态神经网络架构的设计,从不同维度提升网络对低质影像缺陷特征提取的表达能力;同时对网络训练早期与最终识别性能之间的潜在关联探索,提出使用固定采样逐步确定最优候选操作的渐进式快速神经架构搜索方法。在架构搜索阶段使用自行采集、标注的483幅X-ray焊缝缺陷图像,经过随机裁剪、旋转、平移等数据增强操作进行架构寻优,最终以较低的搜索成本自动构建出焊缝缺陷语义分割网络。实验表明,所提方法对X-ray焊缝缺陷进行语义分割最终mIoU指数达到了 49。23%,高于人工设计网络的45。41%和直接使用模型迁移的28。86%,网络自搜索速度和分割效果提升明显。

    语义分割多分辨率多尺度特征融合神经架构搜索焊缝缺陷无损检测

    面向单幅图像的高质量深度估计方法

    包永堂燕帅齐越
    1761-1770页
    查看更多>>摘要:单幅图像的深度估计是机器人导航、场景理解中的一项关键任务,也是计算机视觉领域的一个复杂问题。针对单幅图像深度估计不准确的问题,提出一种基于Vision Transformer(ViT)的单幅图像深度估计方法。首先用预训练的DenseNet对图像进行下采样,将特征编码成适用于ViT的特征序列;然后通过稠密连接的ViT处理全局上下文信息,并将特征序列重新组装成高维度特征图;最后将RefineNet进行上采样,得到完整的深度图像。在NYU V2数据集上与一些代表性的深度估计方法进行对比实验,并对网络结构进行消融实验,同时对平均相对误差、均方根误差等误差进行量化分析,结果表明,所提方法面向单幅图像可以生成具有丰富细节的高质量深度图像;与传统的编码器解码器方法相比,该方法的PSNR值平均提高1。052dB,平均相对误差下降7。7%~21。8%,均方根误差下降5。6%~16。9%。

    深度学习深度估计visionTransformer注意力机制

    从单幅图像估计景深的模型到底学到了什么

    胡立华朵安鹏杨海峰张继福...
    1771-1780页
    查看更多>>摘要:目前,基于深度学习的单幅图像景深估计取得了显著的进展,在一些公开的室内外数据集上均取得了非常高的估计精度。然而,不论是基于监督学习还是基于自监督学习的景深估计模型,这些模型到底学习到了图像的什么性质,使得其能够对景深进行很好的估计呢?为此,从2个侧面对这个问题进行了量化的测试和分析。对于"无纹理"区域,通过模型对这些区域与该区域邻域估计的景深之间的关系,探究了这些区域的估计景深是不是其邻域估计景深的某种"填充"效应;其次分析了模型对高视觉显著性区域估计的景深是否具有更高的估计精度。测试结果显示,无纹理区域与其邻域的估计景深分布确实存在比较高的相似性,但当前景深估计模型的估计精度和图像视觉显著性的关联性不是很强。所得结果对"景深估计模型解析""景深估计模型改进"等相关工作均具有一定的参考价值,例如,今后在设计和训练景深估计模型的工作中,有必要充分考虑输入图像的视觉显著性效应,从而提高模型对高视觉显著性区域的景深估计精度,以便更好地服务下游任务。

    景深估计模型解析无纹理区域视觉显著性