首页期刊导航|计算机科学
期刊信息/Journal information
计算机科学
计算机科学

朱完元

月刊

1002-137X

jsjkx12@163.com

023-63500828

401121

重庆市渝北区洪湖西路18号

计算机科学/Journal Computer ScienceCSCD北大核心CSTPCD
查看更多>>本刊的读者对象是:大专院校师生,从事计算机科学与技术领域的科研、生产人员。办刊宗旨是:坚持“双百”方针,活跃计算机科学与技术领域的学术气氛,重点报导国内外计算机科学与技术的发展动态,为我国的计算机科学与技术立于世界之林、达到国际先进水平奋斗而矢志不渝。
正式出版
收录年代

    基于符号表示的可度量shapelets提取的时序分类研究

    王礼勤万源罗颖
    106-116页
    查看更多>>摘要:在时序分类问题中,基于符号表示的shapelets提取方法具有良好的分类精度和分类效率,但对符号进行质量度量的过程,如计算TFIDF分数,耗时较长且计算量大,导致分类效率较低.此外,提取的shapelets候选数量仍然较多,判别力有待提高.针对这些问题,本文提出了一种基于符号表示的可度量shapelets提取方法,该方法包含时间序列数据预处理、确定shapelets候选集和学习shapelets 3个阶段,可以快速得到高质量shapelets.在数据预处理阶段,将时间序列转化为符号聚合近似(SAX)表示以降低原始时间序列的维度.在确定shapelets候选集阶段,利用Bloom 过滤器过滤重复的SAX词,并将过滤后的SAX词存储在哈希表中进行质量度量.随后,对SAX词的相似性进行判别,基于相似性和覆盖度等概念确定最终的shapelets候选集.在学习shapelets阶段,采用logistic回归模型学得真正的shapelets用于时序分类.在32个数据集上进行了大量实验,实验结果表明,所提方法的平均分类精度和平均分类效率均排名第二.与现有的基于shapelets的时序分类方法相比,该方法可以在保证精度的同时提高分类效率,并且具有良好的可解释性.

    时间序列分类shapeletSAX表示Bloom过滤器logistic回归

    河海图结构蛋白质数据集及预测模型

    魏想想孟朝晖
    117-123页
    查看更多>>摘要:蛋白质是一种具有空间结构的物质.蛋白质结构预测的主要目标是从已有的大规模的蛋白质数据集中提取有效的信息,从而预测自然界中蛋白质的结构.目前蛋白质结构预测实验存在的一个问题是,缺少能够进一步反映出蛋白质空间结构特征的数据集.当前主流的PDB蛋白质数据集虽然是经过实验测得,但没有利用到蛋白质的空间特征,而且存在掺杂核酸数据和部分数据不完整的问题.针对以上问题,从蛋白质的空间结构角度来研究蛋白质的预测.在原始PDB数据集的基础上,提出了河海图结构蛋白质数据集(Hohai Graphic Protein Data Bank,HohaiGPDB).该数据集以图结构为基础,表达出了蛋白质的空间结构特征.基于传统Transformer网络模型对新的数据集进行了相关的蛋白质结构预测实验,在HohaiGPDB数据集上的预测准确率可以达到59.38%,证明了 HohaiGPDB数据集的研究价值.HohaiGPDB数据集可以作为蛋白质相关研究的通用数据集.

    河海图结构蛋白质数据集蛋白质空间结构蛋白质结构预测Transformer模型

    面向多样化数据清洗任务的证据集智能选择方法

    钱泽凯丁小欧孙哲王宏志...
    124-132页
    查看更多>>摘要:由于针对单一特定数据质量问题而设计的数据清洗算法并不总能有效地适用于多种清洗需求共存的数据质量提升技术,因此可采用多种清洗方法互相配合的方式来解决各种数据清洗需求.将数据清洗问题转换为证据集的生成和选择问题,基于聚合查询的增量式质量评估方案和基于中间算子证据集的算子结果选择方案,在多种清洗任务下实现了多种清洗方法配合的高效数据清洗.在所提清洗模型中,算子库提供数据清洗结果并将其转换为中间算子;中游的采样器将中间算子集分流和剪枝,给搜索器提供优质的候选证据集;下游的搜索器在质量评估器的指导下进行证据集的选择,搜索完毕后向上游算子库更新数据和必要的参数,使算子库重新迭代生成中间算子.最后,基于3个不同规模的真实数据集进行了大量实验,通过不同数据清洗任务下的性能验证在任意种类的数据清洗需求下算子编排的可行性,并将所提方法和现有的智能数据清洗系统进行性能对比.结果表明,在多种清洗任务中,所提方法在多种数据质量约束、动态和大规模的数据清洗方面具有稳定的准确率和召回率,且同一清洗时间下异常值、规则违反和混合错误的清洗任务性能优于其他智能数据清洗系统15%以上.

    数据清洗数据质量评估流水线系统设计算子选择证据集

    一种基于对偶学习的场景分割模型

    刘思纯王小平裴喜龙罗航宇...
    133-142页
    查看更多>>摘要:城市场景分割等复杂任务存在特征图空间信息利用率低下、分割边界不够精准以及网络参数量过大的问题.为解决这些问题,提出了一种基于对偶学习的场景分割模型DualSeg.首先,采用深度可分离卷积使模型参数量显著减少;其次,融合空洞金字塔池化与双重注意力机制模块获取准确的上下文信息;最后,利用对偶学习构建闭环反馈网络,通过对偶关系约束映射空间,同时训练"图像场景分割"和"对偶图像重建"两个任务,辅助场景分割模型的训练,帮助模型更好地感知类别边界、提高识别能力.实验结果表明,在自然场景分割数据集PASCAL VOC中,基于Xception骨架网络的DualSeg模型的mIoU和全局准确率分别达到81.3%和95.1%,在CityScapes数据集上mIoU达到77.4%,并且模型参数量减少18.45%,验证了模型的有效性.后续将探索更有效的注意力机制,进一步提高分割精度.

    场景分割图像重建对偶学习注意力机制深度可分离卷积多层次特征融合

    基于梯度引导的低剂量CT超分辨率重建算法

    徐颖张道强葛荣骏
    143-151页
    查看更多>>摘要:低剂量CT(Low-dose CT,LDCT)扫描在临床实践中起着关键作用,其能有效降低放射科医生和患者的患癌风险.然而,低剂量射线的使用会给生成的CT图像引入明显的噪声,这一问题凸显了 LDCT降噪重建的必要性.图像重建领域中的另一个重要任务是超分辨率(Super-resolution,SR)重建,其目标是在减少计算开销的同时实现高分辨率的CT成像.高分辨率CT图像能够更准确地捕捉复杂的解剖细节.尽管这些任务在各自领域取得了显著进展,但目前仍缺乏能够有效利用这两个任务之间固有相关性并同时处理它们的有效方法.文中将边缘信息作为两个任务之间的纽带,并利用梯度提取强相关特征.这使得LDCT降噪重建过程能够辅助超分辨率重建过程,并最终生成具有清晰边缘的结果图像.文中提出的降噪和超分辨率重建网络(NRSR-Net)包括3个组成部分:1)边缘增强框架,该框架利用梯度信息引导和提取相关特征,从而充分利用两个任务之间的相关性,使降噪任务能够辅助超分辨率任务实现更好的性能;2)梯度门控融合模块(Gradient Guided Fusion Block,GG-FB),该模块增强高度相关的边缘特征并抑制无关特征,从而实现边缘区域的有效重建;3)梯度损失,该损失函数为模型引入更加丰富的梯度特征,并使网络重点还原边缘区域.一系列的实验表明,NRSR-Net在定量评估中取得了令人满意的峰值信噪比(PSNR)、结构相似性(SSIM)和学习感知图像块相似度(LPIPS),并获得了高质量的可视化结果.这些优势表明NRSR-Net在临床CT成像中具有巨大潜力.

    低剂量CT超分辨率梯度引导多任务边缘

    基于伪标签依赖增强与噪声干扰消减的小样本图像分类

    唐芮琪肖婷迟子秋王喆...
    152-159页
    查看更多>>摘要:深度学习在图像分类领域的成功很大程度上依赖于大规模数据,然而在许多应用场景中,收集足够的数据用于模型的训练是比较困难的.因此,旨在利用有限的数据获得高性能模型的小样本学习成为热点研究方向.在小样本图像分类领域,使用无标签数据来扩充训练数据集是一种常用的方法,但该方法面临两个亟待解决的难题:如何获取无标签数据的伪标签以及如何减轻噪声标签累积的负面影响?首先,为获得高质量的伪标签,需要解决由源域和目标域的分布偏移导致的噪声标签问题,因而提出基于希尔伯特-施密特独立准则(Hilbert-Schmidt Independent Criterion,HSIC)的依赖增强方法,通过最大化图像特征表示与标签之间的相关性,从而提高伪标签的预测可靠度.其次,为克服标签预测误差随着时间推移不断累积的问题,提出噪声标签干扰消减(Noise Label Interference Reduction,NLIR)方法,确保具有正确标签的样本的梯度始终主导着训练动态,从而将模型引向最优解.所提方法在小样本图像分类基准数据集mini-ImageNet和tiered-ImageNet上进行了评估,实验结果表明,该方法能够很好地利用无标签数据提升分类精度,具有良好的分类性能.

    深度学习图像分类小样本学习伪标签噪声标签希尔伯特-施密特独立准则

    任务感知的多尺度小样本SAR图像分类方法

    张睿王梓祺李阳王家宝...
    160-167页
    查看更多>>摘要:针对SAR图像分类时存在的带标注样本较少的问题,提出了一种任务感知的多尺度小样本SAR图像分类方法.为了能够充分挖掘局部特征并关注具体任务下的关键局部语义patches,引入了两种有效的注意力机制,获得了更加高效且丰富的特征表示.首先,在特征提取阶段使用互补注意力模块(CSE Block),关注原始特征中不同语义部分的显著特征,从被抑制的特征中提取次级显著特征并与主要显著特征融合,得到更加高效且丰富的特征表示.随后,利用自适应情景注意力模块(AEA Block)获得整个任务中的关键语义patches,增强任务间的区分信息,提升小样本SAR图像分类任务的精度.结果表明,在SAR图像分类标准数据集MSTAR上,5-way 1-shot任务分类精度相较于次优方法精度提升了 2.9%,并且该方法在两项任务中的运行时间与其他度量学习方法相比水平相当,未额外增加过多的计算资源,验证了其有效性.

    多尺度注意力机制小样本学习SAR图像分类度量学习

    基于改进DeepLabv3+的遥感影像道路提取算法

    王谦何朗王展青黄坤...
    168-175页
    查看更多>>摘要:道路提取可以帮助人们更好地理解城市环境,是城市交通和城市规划等方面的重要部分,随着深度学习与计算机视觉的发展,利用基于深度学习的语义分割算法从遥感影像中提取道路的技术趋于成熟.针对现有的深度学习道路提取算法存在的提取速度慢和容易受背景环境因素干扰而产生漏分割、不连续等问题,提出了一种基于ECANet注意力机制和级联空洞空间金字塔池化模块的轻量化算法CE-DeepLabv3+.首先,将主干特征提取网络更换为轻量级的MobileNetv2,减少参数量,提高模型的执行速度;其次,通过增加空洞空间金字塔池化模块的卷积层进一步扩大感受野,再级联不同特征层来增强语义信息的复用性,从而加强对细节特征的提取能力;再次,加入ECANet注意力机制,抑制背景环境中的干扰因素,聚焦道路信息;最后,采用改进的损失函数进行训练,消除了道路与背景样本不均衡对模型性能产生的影响.实验结果表明,改进算法的性能优良,与原始DeepLabv3+算法相比,在分割效率、分割精度上有较大的提升.

    语义分割遥感影像道路提取注意力机制DeepLabv3+级联空洞空间金字塔池化

    由CCF承办的科协年会分论坛"大数据关键技术与数字经济发展论坛"在京举办

    CCF微信公众号
    175页

    基于颜色流模型的非配对医学图像颜色迁移方法

    王晓洁刘尽华陆书一周元峰...
    176-182页
    查看更多>>摘要:在临床应用中,CT图像是一种比较容易获取的影像数据,但是其与真实人体色彩有较大差距.人体断层彩色图像是真实人体的色彩反应,但却是一种稀有数据.如果将两者结合,使得每个病例都可以得到自己的彩色CT数据,将会对医生手术和患者理解有更好的促进作用.因此,文中提出了一种基于颜色流模型的医学图像颜色迁移框架.首先,将CT数据和真实人体彩色数据分别输入颜色流模型中,提取二者的内容特征和颜色特征;然后,在特征层面进行颜色和纹理的迁移工作;最后,将处理以后的特征信息重新输入到可逆颜色流模型中进行图像重建工作.为了使着色以后的图像更具有纹理特征,在每个流模块之后添加了纹理约束损失;同时,为了保证医学图像上细小血管等组织的特征不被丢失,在着色图像和源图像之间添加了边缘约束损失.通过定性和定量实验证明,所提方法比其他的着色方法更加鲁棒,且着色后的图像更加真实.文中也在不同的数据域上进行了测试,依旧可以得到稳定的实验结果.同时,所提方法也可以在不调整窗宽/窗位的前提下显示清晰的组织结构.

    流模型着色纹理约束稳定性边缘约束