首页期刊导航|计算机应用研究
期刊信息/Journal information
计算机应用研究
四川省电子计算机应用研究中心
计算机应用研究

四川省电子计算机应用研究中心

刘营

月刊

1001-3695

arocmag@163.com

028-85249567

610041

成都市成科西路3号

计算机应用研究/Journal Application Research of ComputersCSCD北大核心CSTPCD
查看更多>>本刊创刊于1981年,以其新颖性、技术性、实用性、工具性、知识性于一身,设置众多栏目,信息量极大,反映并涵盖了当今国内外计算机应用研究的主流技术、热点技术及最新发展趋势,是一份极具收藏价值的技术刊物。本刊读者对象为从事计算机应用、开发、研究的科技人员,大中专院校师生,各企事业单位技术人员,计算机业余爱好者及相关管理、情报工作者订阅、收藏。本刊现为中国计算机学会会刊,中国科技论文统计源核心期刊,全国中文核心期刊,中国科学引文数据库来源期刊, 中国学术期刊综合评价数据库来源期刊,并为多个检索数据库收录,在国内科技期刊评比中多次荣获优秀科技期刊奖。
正式出版
收录年代

    基于视角统一的手姿态估计优化方法

    曹忠锐谢文军王冬钮立超...
    293-299页
    查看更多>>摘要:从深度图像中准确估计手的三维姿态是计算机视觉领域的重要任务.然而,由于手的自遮挡和关节自相似性,使得手姿态估计任务极具挑战性.为了克服这些困难,考察了深度图像采样视角对于估计精度的影响,提出了一种基于视角统一(UVP)的网络.该网络旨在将输入的深度图像重采样为更易于估计的"正面"视角,而后通过原始视角下的特征提高关节估计精度.首先,提出了视角转换模块,实现对输入的单张深度图像的视角旋转,提供作为补充的第二视角;然后,提出了视角统一损失函数,确保转换后的第二视角为"正面"视角,最大程度规避自遮挡问题;最后,通过改变卷积组合结构、降低网络深度等网络轻量化手段,进一步优化方法的性能.通过在三个公开的手姿态数据集(包括ICVL、NYU和MSRA)上进行实验,所提方法分别取得了 4.92 mm、7.43 mm和7.02 mm的平均关节位置误差,且在搭载RTX3070的计算机上能以159.39 frame/s的速度运行.可见,转换深度图的采样视角,并融合双视角下的特征有利于提高手部姿态估计的精度.同时,所提方法具备自适应性,并表现出优秀的泛化能力,可以推广到大多数基于单深度图像的手部姿态估计模型,为深度学习在三维手姿态估计中的应用提供了有力支持.

    手部姿态估计手关节自遮挡视角统一深度图像点云变换

    单目RGB穿衣人体的手部精细化重建

    张冀任志鹏张荣华苑朝...
    300-306页
    查看更多>>摘要:为解决单目穿衣人体在复杂姿态下手部形状重建存在遮挡和缺失的失真问题,提出了一种结合ECON与MANO手部模型,实现高效穿衣人体的手部精细化重建方法H-ECON(hand-focused explicit clothed humans obtained from normials).具体而言,该方法首先以类型无关的手部检测器聚焦手部区域并进行翻转和裁剪;然后,引入注意力机制用于增强对手部区域的感知能力,空洞螺旋卷积则更好地捕捉手部不同尺度的特征;最后,独特的融合模块确保了手部重建与整身模型的融合效果.在FreiHAND和HanCo公开数据集上与其他方法的定量定性对比结果表明了 H-ECON的有效性,其独立手部模块明显优于ECON中的替代手部模块.H-ECON实现了对人体手部几何和姿态变化的精确描述,进一步缩小了 2D图像生成到3D人体网格之间的差距.

    手部重建穿衣人体注意力机制空洞螺旋卷积深度几何学习

    下期要目

    306页

    一种基于旋转-平移解耦优化的在线稠密重建算法

    郭帆吕泽均张严辞
    307-313页
    查看更多>>摘要:为了解决传统算法中由旋转和平移耦合优化引起的相互干扰以及量纲差异问题,提出了一种基于旋转-平移解耦优化的稠密重建算法.该算法将相机位姿空间拆分成旋转和平移两个独立子空间,并在子空间内独立地搜索两分量的优质解.在每次迭代中,该算法针对旋转和平移的当前估计值设置搜索邻域,并在搜索邻域内采样候选解,通过评估选出最优解以更新估计值.迭代该过程,直到满足结束条件.实验结果显示,该算法有效地减少了旋转与平移优化过程中的相互干扰,从而提高了优化的效率和精度.这证明了在稠密重建中相机位姿估计环节,该算法设计具有一定优势.

    在线稠密重建解耦优化相机位姿估计隐式曲面配准

    小数据集上基于语义的局部注意视觉Transformer方法

    冯欣王俊杰钟声方婷婷...
    314-320页
    查看更多>>摘要:在小数据集上从零开始训练时,视觉Transformer无法与同规模的卷积神经网络媲美.基于图像的局部注意力方法,可以显著提高ViT的数据效率,但是会丢失距离较远但相关的补丁之间的信息.为了解决上述问题,提出一种双向并行局部注意力视觉Transformer的方法.该方法首先在特征层面上对补丁进行分组,在组内执行局部注意力,以利用特征空间中补丁之间的关系弥补信息丢失.其次,为了有效融合补丁之间的信息,将基于语义的局部注意力和基于图像的局部注意力并行结合起来,通过双向自适应学习来增强ViT模型在小数据上的性能.实验结果表明,该方法在计算量为15.2 GFLOPs和参数量为57.2 M的情况下,分别在CIFAR-10和CIFAR-100数据集上实现了 97.93%和85.80%的准确性.相比于其他方法,双向并行局部注意力视觉Transformer在增强局部引导能力的同时,保持了局部注意力所需属性的有效性.

    深度学习图像分类Transformer局部注意力基于语义的局部注意

    计算机应用研究专题征文生成式AI模型研究与发展

    封3页