首页期刊导航|计算机科学
期刊信息/Journal information
计算机科学
计算机科学

朱完元

月刊

1002-137X

jsjkx12@163.com

023-63500828

401121

重庆市渝北区洪湖西路18号

计算机科学/Journal Computer ScienceCSCD北大核心CSTPCD
查看更多>>本刊的读者对象是:大专院校师生,从事计算机科学与技术领域的科研、生产人员。办刊宗旨是:坚持“双百”方针,活跃计算机科学与技术领域的学术气氛,重点报导国内外计算机科学与技术的发展动态,为我国的计算机科学与技术立于世界之林、达到国际先进水平奋斗而矢志不渝。
正式出版
收录年代

    基于U-Net优化的SAR遥感图像语义分割

    王鑫张昊宇凌诚
    376-381页
    查看更多>>摘要:多光谱图像的分割是遥感图像解译的重要基础环节,SAR遥感图像中包含着复杂的地物目标信息,传统的分割方法存在耗时长、效率低等问题,导致传统图像分割方法的应用受限.近年来,深度学习算法在计算机视觉方向的应用取得了较好的成果,针对多光谱遥感影像语义分割问题,使用深度学习的语义分割方法来实现遥感影像的高性能分割,在U-Net网络结构上添加激活层、Dropout层、卷积层,提出一种基于U-Net优化的深度卷积神经网络,在少量数据集的基础上实现了对以SAR图像合成的多光谱影像中耕地、建筑、河流的快速检测,整体分割准确率达94.6%.与U-Net,SegNet的对照实验结果表明,所提方法的分割准确率相比U-Net,SegNet整体较优,相比U-Net和SegNet分别提升了2.5%与5.8%.

    U-Net多光谱深度学习SAR遥感影像语义分割

    基于改进DeeplabV3+的地物分类方法研究

    朱戎叶宽杨博谢欢...
    382-385页
    查看更多>>摘要:原始DeeplabV3+算法对无人机航拍图像中的地物边缘分割不够准确,对道路的分割存在不连续的情况.因此,针对这些问题,文中对DeeplabV3+算法进行了改进.首先,在编码阶段进行特征融合,增强浅层特征图的语义信息;其次,在分割网络结构中添加边界提取分支模块,并采用Canny边缘检测算法提取真实的边界信息进行监督训练,使网络对地物边缘的分割更为精细;最后,在网络的解码阶段,融合更多的浅层特征.实验结果表明,所提方法的mIoU值为80.92%,比DeeplabV3+算法提升了6.35%,能够有效进行地物分类.

    遥感图像地物分类边缘检测DeeplabV3+语义分割

    基于光照叠加的颜色恒常计算方法

    冯一凡赵雪青师昕杨坤...
    386-390页
    查看更多>>摘要:颜色恒常性是人类视觉系统对外界视觉刺激中色彩感知的一种心理倾向,人类视觉的这种认知功能能够自适应地忽略外界光照变化,具有稳定的颜色感知能力.受到人类视觉系统对颜色感知的启发,针对如何有效消除外界光照对成像质量的影响,还原物理场景真实颜色并提供稳定的颜色特征这一问题,文中提出了一种基于光照叠加的颜色恒常计算方法,旨在有效消除外界光照的光谱成分变化对物体颜色的影响.首先,提出了MAX-MEAN方法对场景中的光照进行估计(简称MM估计),即通过场景中所有物体表面的平均反射和最大反射来估计场景中的光照;然后,基于MM估计提出了光照叠加的颜色恒常计算方法,得到最终的无色偏图像,并在公开的数据集SFU Gray-ball上包含11346幅室内室外场景图像进行仿真验证.实验结果表明,文中提出的光照叠加颜色恒常计算方法能够有效地估计光照信息并实现无色偏图像的计算.

    颜色恒常光照估计视觉系统图像处理

    基于流形结构神经网络的服装图像集分类方法

    程铭马佩何儒汉
    391-395页
    查看更多>>摘要:随着大规模时尚数据集的公开,基于深度学习的服装图像分类得到快速发展.然而,目前服装图像分类多数是在同一件服装具有单张的、正面或接近正面的图像的场景下进行分类,这导致了当视角发生变化时常出现服装图像误分类的情况,现实中服装具有的形变大、遮挡严重等特性进一步加剧了该问题.基于上述问题,提出了一种基于流形结构神经网络的服装图像集分类方法,利用流形空间更好地表示服装的内部结构特征.该方法选用多视角度服装图像集作为实验数据集,首先通过卷积神经网络提取服装图像集的浅层特征,再通过协方差池化将欧氏数据转换为流形数据,最后通过基于流形结构的神经网络学习服装图像集的内部结构特征,获取准确的分类结果.实验结果表明,所提方法在MVC数据集上的Precision、Recall和F-1指标可达到89.64%,89.12%和88.69%,与现有的图像集(视频)分类算法相比,其分别获得了2.04%,2.65%和2.70%的提升,该方法比已有算法更加准确、高效、鲁棒.

    流形神经网络服装图像集分类时尚分析深度学习计算机视觉

    改进穿线法与HOG+SVM法结合的数码管图像读数研究

    宋一言唐东林吴续龙周立...
    396-399,440页
    查看更多>>摘要:针对传统投影分割方法在提取单个数码管数字图像时过于依赖图像二值化及图像倾斜校正效果的问题,采用一种基于轮廓提取和轮廓排序相结合的数码管图像分割方法,实验证明该方法相比投影分割法在对数字区域的分割成功率上提高了13.5%;针对传统穿线法对数码管数字1识别度较低和机器学习算法运行用时较长的问题,提出一种基于六段数码管特征的改进穿线法与HOG+SVM方法相结合的数码管数字识别方法,该方法对数码管数字的识别准确率比传统穿线法提高了约4.5%,且平均运行时间仅为HOG+SVM方法的1/5.实验结果证明了这种方法在进行数码管读数时的可靠性和优越性.

    数码管识别和读数图像处理轮廓分割穿线法HOG+SVM

    基于深度信念网络的视觉人体动作识别

    洪耀球
    400-403页
    查看更多>>摘要:为实现互联网上大量背景复杂、视点变化的视频中人体动作的识别,提出了一种使用无监督的深度信念网络(DBNs)进行人体动作识别的创新方法.该方法采用深度信念网络(DBNs)和受限玻耳兹曼机进行无约束视频的动作识别,利用无监督深度学习模型自动提取合适的特征表示,不需要任何先验知识.在一个具有挑战性的UCF体育数据集上进行实验,证明了该方法准确有效.同时该方法也适用于其他视觉识别任务,并在未来可扩展到非结构化的人体活动识别.

    深度信念网络玻耳兹曼机人体动作识别无监督

    基于目标轨迹空间关系的视频摘要方法

    曲智国谭贤四唐瑭郑建成...
    404-408,423页
    查看更多>>摘要:碰撞现象是视频摘要中需要避免的问题,在轨迹重排时一般通过碰撞代价函数进行约束,但是现有视频摘要方法在轨迹重排优化过程中需要重复计算轨迹间的碰撞代价,存在大量冗余运算量,为此提出了一种基于目标轨迹空间关系的视频摘要方法.该方法通过分析目标轨迹间的空间关系,可以在轨迹重排前预先判断两条轨迹是否会发生碰撞,据此定义了3种轨迹关系,并给出了碰撞代价的快速计算方法,从而较好地降低了现有视频摘要方法优化过程中的冗余计算,提高了视频摘要中轨迹重排的运算速度.实验结果验证了所提方法的有效性.

    视频处理视频摘要轨迹重排碰撞现象轨迹关系

    基于多特征融合的人脸活体检测算法

    栾晓李晓双
    409-415页
    查看更多>>摘要:近年来,随着人脸识别系统的不断发展,各种假冒合法用户的欺骗手段不断出现.基于单一差异线索进行的活体检测,已经不能满足当前复杂环境下提高人脸活体检测方法性能的需求.基于此,文中提出多特征融合的方法,使用卷积神经网络从人脸图像的不同线索中学习多个特征来进行活体检测,深度图在空间上能够区分真假人脸之间的深度信息;光流图在时间上能够区分真假人脸之间的动态信息;残差噪声图根据真人脸的一次成像和假冒人脸的二次成像噪声成分的不同进行区分.文中融合3种特征,不仅利用空间、时间多维度线索弥补了单一线索的不足,同时也提高了模型的泛化能力.相比现有的方法,所提方法无论是在同一个数据库还是跨数据库的情况下,均有较好的实验结果.具体而言,所提方法在CASIA数据集、RE-PLAY-ATTACK数据集和NUAA数据集上的错误率分别为0.11%,0.06%和0.45%.

    人脸识别活体检测多特征融合

    基于行列解耦采样的轻量车道线检测模型

    陈浩楠雷印杰王浩
    416-419页
    查看更多>>摘要:随着深度学习的发展,基于深度卷积神经网络的车道线检测模型在自动驾驶系统和高级辅助驾驶系统中得到了广泛的应用.这些模型虽然有较高的精度,但通常计算量大且运行速度慢.为了解决该问题,提出了一种车道线检测任务专用的轻量神经网络模型.首先,提出了一种行列解耦采样的卷积模块,该模块利用图像中车道线区域的行列可分解性对传统的残差卷积模块进行了合理的优化.其次,利用深度可分离卷积技术进一步降低行列解耦采样卷积模块的计算量.此外,还设计了一种金字塔空洞卷积模块来增加模型的感受野.在CULane数据集上的实验的结果表明,文中提出的轻量车道线检测模型与之前最好的SCNN模型相比,浮点计算量降低了95.2%,F1分数提高了1.0%,在保持较高精度的前提下显著降低了车道线检测模型的计算量.

    计算机视觉卷积神经网络车道线检测车道线分割轻量模型

    利用透射率与场景深度实现带雾图像能见度检测

    张鼎蒋慕蓉黄亚群
    420-423页
    查看更多>>摘要:能见度检测是计算机视觉与交通视频图像处理的热点问题.针对传统检测方法存在硬件成本高、适用范围小、检测效率低等不足,给出一种利用透射率和场景深度获取单幅图像能见度的检测方法.首先根据Koschmieder定律和ICAO推荐的对比阈值推导出能见度检测公式,然后根据大气衰减模型得到消光系数,利用暗通道先验理论获取透射率值,结合SFS(从阴影恢复形状)和双目模型获取场景深度值,最后通过求解消光系数反演图像的能见度.实验结果验证了该方法的有效性,精确度和检测效率有较大提高,且不需要相机内部参数,也不需要拍摄同一场景的多幅图像,操作简单、适用范围较广.

    带雾图像能见度检测场景深度透射率消光系数