首页期刊导航|图学学报
期刊信息/Journal information
图学学报
图学学报

李华

双月刊

2095-302X

txb@cgn.net.cn txxb_2011@163.com

010-82317091

100191

北京海淀学院路37号中国图学学会学报编辑部

图学学报/Journal Journal of GraphicsCSCD北大核心CSTPCD
查看更多>>本刊是中国工程图学会主办的全国中文核心期刊和全国科技文统计用刊。本刊面向国内外公开发行,主要刊载图学专业有关图学理论与应用、图学教育理论、计算机图学与CAD、科学可视化、工业设计、图样标准化等有关方面的学术论文,重要研究成果和技术经验总结,国内外重要论著的评述和学术动态。
正式出版
收录年代

    室外大场景神经辐射场综述

    董相涛马鑫潘成伟鲁鹏...
    631-649页
    查看更多>>摘要:对室外大场景进行三维建模,不仅可以完成实时的城市建图和漫游,还能为自动驾驶等提供技术支持.近年来,神经隐式建模的发展十分迅速,神经辐射场(NeRF)的出现更是将神经隐式建模推上了新的高度.NeRF 凭借高质量渲染和任意角度渲染的特点,已经在可控编辑、数字化人体、城市场景重建等领域得到了广泛的应用.NeRF通过深度学习的方法从二维图片及其位姿中学习隐式三维场景,生成新视角图像.然而原始NeRF只能在有界场景下得到逼真的结果,在对室外大场景进行建模时,往往会面临无界背景、模型容量、场景外观等问题.基于室外大场景中NeRF部署的多个角度改进和多样的NeRF变种,首先介绍NeRF的背景,然后从室外大场景的难点切入,对各个难点的解决方法进行分析和讨论,最后对室外大场景NeRF目前的进展进行总结并对未来进行展望.

    神经隐式表达神经辐射场新视角合成室外场景大场景

    改进YOLOv7遥感图像目标检测算法

    李大湘吉展刘颖唐垚...
    650-658页
    查看更多>>摘要:针对遥感图像中目标尺度变化大和背景复杂导致检测精度低的问题,设计了一种改进YOLOv7目标检测算法.首先,为了缓解复杂背景对检测器的干扰,设计了一个注意力引导的高效层聚合网络(ALAN),以优化多路径网络使其更聚焦前景目标而降低背景的影响;其次,为了降低目标尺度变化大对检测精度的影响,设计了一种注意力多尺度特征增强(AMSFE)模块,用于扩展主干网络输出特征的感受野,以加强网络对尺度变化大目标的特征表征能力;最后,引入旋转边界框损失函数,以获取任意朝向物体的精确位置信息.在DIOR-R数据集上的实验结果表明,该算法mAP达到了 64.51%,相比于基线原始YOLOv7 算法提高了 3.43%,且优于其他同类算法,能够适应遥感图像中多尺度和复杂背景的目标检测任务.

    遥感目标检测特征增强注意力机制YOLOv7

    ASC-Net:腹腔镜视频中手术器械与脏器快速分割网络

    张新宇张家意高欣
    659-669页
    查看更多>>摘要:腹腔镜手术自动化是智能外科的重要组成部分,其前提是腔镜视野下手术器械与脏器实时精准分割.受术中血液污染、烟雾干扰等复杂因素影响,器械与脏器实时精准分割面临巨大挑战,现有图像分割方法均表现不佳.因此提出一种基于注意力感知与空间通道的快速分割网络(ASC-Net),以实现腹腔镜图像中器械和脏器快速精准分割.在UNet架构下,设计了注意力感知与空间通道模块,通过跳跃连接将二者嵌入编码与解码模块间,使网络重点关注图像中相似目标间深层语义信息差异,同时多维度学习各目标的多尺度特征.此外,采用预训练微调策略,减小网络计算量.实验结果表明:在EndoVis2018数据集上的平均骰子系数(mDice)、平均重叠度(mIoU)、平均推理时间(mIT)分别为 90.64%,86.40%和 16.73 ms(60 帧/秒),相比于现有最先进方法,mDice与mIoU提升了 26%与 39%,且mIT降低了 56%;在AutoLaparo数据集上的mDice,mIoU和mIT分别为 93.72%,89.43%和 16.41ms(61 帧/秒),同样优于对比方法.该方法在保证分割速度的同时有效提升了分割精度,实现了腹腔镜图像中手术器械和脏器的快速精准分割,将助力腹腔镜手术自动化快速发展.

    自动化手术腹腔镜图像多目标分割注意力感知多尺度特征预训练微调

    基于同质中间模态的跨模态行人再识别方法

    罗智徽胡海涛马潇峰程文刚...
    670-682页
    查看更多>>摘要:可见光-红外跨模态行人再识别(VI-ReID)旨在对不同摄像头采集同一行人的可见光图像和红外图像进行检索与匹配.除了存在可见光行人再识别(ReID)中因位姿、视角、局部遮挡等造成的模态内差异外,可见光图像和红外图像的模态间差异是VI-ReID的主要挑战.现有方法通常对2种模态的图像进行联合特征学习来缩小模态间差异,忽略了可见光和红外两种模态图像在通道上的本质不同.为此,本文试图从2种模态共同生成一种中间模态来辅助缩小模态间差异,并在标准ViT(vision transformer)网络上通过局部特征和全局特征的融合来优化特征嵌入学习.首先,设计同质中间模态生成器,通过可见光图像和红外图像共同生成同质中间模态(H-modality)图像,将3种模态图像投影到统一的特征空间进行联合约束,从而借助中间模态缩小可见光模态和红外模态间的差异,实现图像级对齐.进一步提出一种基于同质中间模态的Transformer跨模态行人再识别方法,使用ViT提取全局特征,设计一个局部分支以增强网络的局部感知能力.在全局特征提取中,为了增强全局特征的多样性,引入头部多样性模块(head enrich module)使不同的头聚合图像不同的模式.该方法融合全局特征与局部特征,能够提高模型的判别能力,在 SYSU-MM01 和 RegDB 数据集上的 rank-1/mAP 分别达到 67.68%/64.37%和86.16%/79.11%,优于现有大多数最前沿的方法.

    行人再识别跨模态Transformer中间模态特征融合

    基于语义引导的人像自动抠图模型

    程艳严志航赖建明王桂喜...
    683-695页
    查看更多>>摘要:为解决现有人像抠图方法中存在的语义判别错误和抠图细节模糊问题,提出一种基于语义引导的人像自动抠图模型.首先引入CNN-Transformer混合架构EMO进行特征编码.接着,在语义分割解码分支利用多尺度混合注意力模块处理最高层编码特征,以增强多尺度表征和像素级判别能力.然后,使用特征增强模块融合高层次特征,促使高层语义信息在浅层网络的流动.同时,细节抠取解码分支中的聚合以引导来自模块不同分支的特征聚合,利用聚合特征更好地引导网络提取浅层特征,提高了边缘细节抠取精度.在 3 个数据集上的实验表明,该方法与所比较方法相比性能达到了最优,并显著降低了参数量和计算复杂度,具有较高的竞争力.

    人像抠图语义引导多尺度特征增强聚合引导

    基于多尺度与注意力机制的两阶段风暴单体外推研究

    魏敏姚鑫
    696-704页
    查看更多>>摘要:风暴是一种生命周期短、发生突然、空间尺度小的自然现象,常用雷达回波外推方法进行预测,但时序预测模型难以在众多特征中定位风暴关键信息,导致预测精度低,模型无法充分学习图像高频信息,导致预测细节缺失,结果模糊.为了提升预测性能,提出两阶段风暴单体外推框架.第一阶段使用多尺度模块提取多尺度信息,注意力机制挖掘影响预测的重要特征,使用时空长短期记忆单元进行序列预测.第二阶段对一阶段结果进行偏差矫正,使用频域损失丰富外推细节.实验结果表明,在雷达回波数据集上,与主流模型PredRNN-V2相比,该模型均方误差降低11.4%,SSIM提升4.3%,在风暴单体外推任务中表现优越.在Moving MNIST数据集上,均方误差降低4.95%,感知损失降低12.67%,SSIM提升至0.898,具有良好的时序预测能力.

    注意力机制空洞卷积频域损失长短期记忆时空序列预测

    基于数据表示不变性的域泛化研究

    倪云昊黄雷
    705-713页
    查看更多>>摘要:域泛化是人工智能近几年非常热门的一个研究方向,希望在不同的数据分布中学习到与任务相关的不变表征,即移除不同域在学习任务中的影响,从而提升模型的域泛化能力.为提升模型域泛化能力,利用基于不变性风险最小化的思想,具体将神经网络分为特征提取器和不变性分类器进行分别探究.在特征提取器上,采用了基于牛顿迭代的组白化方法来控制激活值的分布,从而使得不同的图像经过神经网络后能够去除部分域信息,以求达到域泛化的目的;在不变性分类器上,探究了特征和权重的规范化方法对模型域泛化效果的影响,并提出了基于余弦相似度损失函数的雪花算法,该算法提升了模型域泛化的准确率.此外,提供了关于雪花算法的理论推导并做了深入分析,为实验提供了理论支撑.

    域泛化不变风险最小化组白化迭代白化雪花算法

    基于改进YOLOv8和GMM图像点集匹配的双目测距方法

    胡欣常娅姝秦皓肖剑...
    714-725页
    查看更多>>摘要:针对无人塔吊系统的研究需求,提出一种基于改进YOLOv8和GMM图像点集匹配的双目测距方法,对驾驶室外环境中的塔吊吊钩进行检测识别并测距.通过双目摄像头进行图像采集,引入 FasterNet 骨干网络和Slim-neck颈部连接层,对YOLOv8目标检测算法进行改进,有效检测画面中的塔吊吊钩并获取检测框的二维坐标信息;采用局部敏感哈希方法,并融合分阶段匹配策略,提升GMM图像点集匹配模型的匹配效率,针对检测框中的塔吊吊钩,进行特征点匹配;最后通过双目相机三角测量原理计算得出塔吊吊钩的深度信息.实验结果表明,改进后的YOLOv8 算法与原算法相比,精确率P提高了 2.9%,平均精度AP50提高了 2.2%,模型复杂度降低了10.01 GFLops,参数量减少了3.37 M,在提升检测精度的同时实现了模型的轻量化.改进后的图像点集匹配算法与原算法相比,各个指标表现出更加良好的鲁棒性.最后在工程现场对塔吊吊钩进行识别与测距,误差可接受范围内有效完成了塔吊吊钩的检测识别与测距任务,验证了本方法的可行性.

    YOLOv8目标检测高斯混合模型点集匹配深度学习双目视觉智慧工地可视化

    基于改进YOLOv8的船舰遥感图像旋转目标检测算法

    牛为华郭迅
    726-735页
    查看更多>>摘要:针对船舰遥感目标图像检测中存在的小目标检测困难,船舰形状各异以及传统水平边界框对于高长宽比的目标所框选冗余信息较多的问题,提出了一种基于改进 YOLOv8 的船舰遥感图像旋转目标检测算法.通过改进主干网络中的卷积结构,缓解了由于跨步卷积所导致的细粒度信息丢失的问题,对于小目标检测的精度有所提升;将C2f中的部分卷积模块替换为DCNv3 可变形卷积,使其可以更好提取不规则物体的特征信息,提高模型的非线性建模能力;在颈部网络中融入主干网络中的浅层特征信息,缓解了经多次卷积操作所导致的细节信息丢失的问题,提升了模型对小目标物体的检测能力.实验结果表明,改进后的算法在ShipRSImageNet数据集上的检测精度(mAP50)达到了 84.317%,较基准模型提升了 4.054%,在HRSC2016 数据集上达到了 93.235%,较基准模型提升了 1.555%,在少量增加模型参数量的情况下取得了较高的检测性能,很好地平衡了模型的效率和性能.

    YOLOv8旋转目标检测可变形卷积特征融合深度学习

    基于SOE-YOLO轻量化的水面目标检测算法

    曾志超徐玥王景玉叶元龙...
    736-744页
    查看更多>>摘要:针对复杂多变的水面环境,小目标检测存在漏检、错检且检测平台计算资源有限的问题,提出了基于YOLOv8 的轻量化水面目标检测算法SOE-YOLO.首先在Neck部分使用包含GSConv的Slim-Neck设计范式对模型进行轻量化改进;其次通过使用轻量型卷积(ODConv)模块重新构建Backbone部分,以减少参数量从而提高网络的检测速度;最后引入多尺度注意力机制(EMA)增强网络多尺度特征提取能力,提高小目标检测能力.在WSODD测试集中的实验结果表明,SOE-YOLO模型参数量和计算量分别为 2.8 M和 6.6 GFLOPs,与原模型相比分别减少 12.5%和 18.6%,同时mAP@%0.5 和mAP@0.5-0.95 分别达到 79.9%和 47.2%,与原模型相比分别提高 2.4%和 1.6%,且漏检率下降明显,优于当前流行的目标检测算法.FPS达到了 64.25,满足水面目标检测实时性的要求.在实现轻量化的同时具有更好的检测性能,满足了在计算资源受限环境下的部署需求.

    水面目标检测YOLOv8轻量化改进Slim-Neck设计范式注意力机制