首页期刊导航|计算机研究与发展
期刊信息/Journal information
计算机研究与发展
计算机研究与发展

徐志伟

月刊

1000-1239

crad@ict.ac.cn

010-62620696;62600350

100190

北京中关村科学院南路6号

计算机研究与发展/Journal Journal of Computer Research and DevelopmentCSCD北大核心CSTPCDEI
查看更多>>本刊是中国科学院计算技术研究所和中国计算机学会联合主办、科学出版社出版的学术性刊物、中国计算机学会会刊,我国第一个计算机刊物。主要刊登计算机科学技术领域高水平的学术论文、最新科研成果和重大应用成果。
正式出版
收录年代

    算法公平与公平计算

    范卓娅孟小峰
    2048-2066页
    查看更多>>摘要:算法公平问题由来已久,且随着社会变革历程不断花样翻新.随着数字化转型的加速推进,算法公平问题的根源逐渐由社会偏见转向数据偏见与模型偏见,算法给人带来的剥削变得更为隐蔽,而影响更为深远.尽管社会科学各领域对公平问题研究已久,但大部分仅停留在定性的表述上.作为计算机科学与社会科学的交叉问题,数字化转型下的算法公平不仅要继承社会科学各领域的基本理论,更要具备公平计算的方法与能力.由此,从算法公平的内涵出发,从社会偏见、数据偏见与模型偏见 3个维度总结现有的算法公平计算方法,最后对算法公平指标和公平方法进行实验对比,进而分析算法公平计算面临的挑战.实验表明,原始模型的公平性与准确性之间存在权衡关系,公平方法的公平性与准确性之间存在一致关系.在公平指标上,不同公平指标之间的相关性差异较大,这说明了多样的公平指标的重要性.在公平方法上,单一的公平方法效果有限,这说明了探索公平方法组合的重要性.

    算法公平公平计算社会偏见数据偏见模型偏见

    一种局部遮挡人脸识别的对抗样本生成方法

    张万里陈越杨奎武张田...
    2067-2079页
    查看更多>>摘要:基于对抗样本开展对抗训练目前已成为提升模型鲁棒性、安全性的重要手段.新冠疫情使得佩戴口罩成为常态,遮挡人脸识别成为现实需要.针对当前缺乏遮挡人脸识别对抗样本生成方法的问题,提出了一种自适应对抗样本生成方法——AOA(adversarial examples against occluded faces recognition based on adaptive method).首先,根据目标模型调整对抗样本生成策略,并根据输入人脸自动调整干扰区域.其次,通过将扰动集中在对识别影响更大的区域,结合集成模型和高斯滤波,在局部特征增强的虹软、百度人脸识别上实现了黑盒攻击.最后,结合动态掩码和动态扰动乘数避免了攻击过程中的冗余计算,并保证了攻击的可持续性,生成的扰动使得人脸修复遮挡识别模型错误分割遮挡区域,进而降低模型的识别准确率.设计实现了人脸修复遮挡识别模型Arc-UFI.实验表明,AOA能够实现针对局部特征增强和人脸修复的遮挡人脸识别的有效攻击.此外,AOA可为模型安全对抗训练提供有益支撑.

    深度学习神经网络对抗样本遮挡人脸识别人脸修复

    基于局部优化的图表示学习增强

    唐正正汪洋洪学海班艳...
    2080-2095页
    查看更多>>摘要:随着图表示学习在多个领域的成功应用,针对不同图数据和问题而设计的图表示学习方法爆发式增长.然而,图噪声的存在限制了图表示学习的能力.为有效降低图网络中的噪声比例,首先分析了图节点局部邻接的分布特性,并理论证明在局部邻接拓扑构建时,探索高阶邻近信息能够优化增强图表示学习的性能.其次,提出"2步骤"局部子图优化策略(local subgraph optimization strategy,LSOS).该策略首先根据原始图拓扑结构信息构造出具有多阶信息的局部邻接相似矩阵.然后基于相似矩阵和图节点局部信息,对图节点进行局部子图的结构优化.通过局部邻接的合理重构来降低网络中的噪声比例,进而达到图表示学习能力的增强.在节点分类、链接预测和社区发现 3类任务的实验中,结果表明局部子图优化策略能够提升 8个基线算法的性能.其中,在 3个航空网络的节点分类任务中,提升效果最高分别达到23.11%,41.58%,24.16%.

    图表示学习图噪声节点分类链接预测社区发现

    双网络中影响力凝聚子图发现算法

    李源杨森孙晶赵会群...
    2096-2114页
    查看更多>>摘要:双网络由物理图和概念图构成,其中物理图和概念图共享网络结点集合而具有不同边集合.物理图中边表示结点间实际存在的关系;概念图中边表示结点间的相似程度,通常由计算得出.最近,从双网络中发现凝聚子图,即物理图中连通且概念图中稠密的子图受到研究者的广泛关注,在研讨会筹备、商品推荐和致病基因发现等真实场景中具有广泛应用.但现有研究鲜有考虑双网络中凝聚子图的影响力.为此:1)提出一种基于最小边权重定义的影响力凝聚子图,即影响力k-连通truss(k-ICT)子图模型.k-ICT子图模型能够有效刻画子图在双网络中的重要性且对低影响力边鲁棒.2)由证明可知,发现影响力最大的k-ICT子图是NP-难的,因此提出一种基于概念图边等价类划分的CT索引结构.利用索引的概要图,能够根据不同的k值,快速发现包含所有k-ICT子图的候选子图.3)提出了基于全局枚举删除和局部子图扩展的精确算法Exact-GkICT和Exact-LkICT,用于发现top-r具有最大影响力的k-ICT子图.通过大量在真实数据集上的实验,验证算法的高效性和有效性.

    影响力凝聚子图发现影响力k-连通truss子图模型CT索引双网络图数据挖掘

    基于依存句法的可解释图像描述生成

    刘茂福毕健旗周冰颖胡慧君...
    2115-2126页
    查看更多>>摘要:已有图像描述生成模型虽可以检测与表示图像目标实体及其视觉关系,但没有从文本句法关系角度关注模型的可解释性.因而,提出基于依存句法三元组的可解释图像描述生成模型(interpretable image caption generation based on dependency syntax triplets modeling,IDSTM),以多任务学习的方式生成依存句法三元组序列和图像描述.IDSTM模型首先通过依存句法编码器从输入图像获得潜在的依存句法特征,并与依存句法三元组及文本词嵌入向量合并输入单层长短期记忆网络(long short-term memory,LSTM),生成依存句法三元组序列作为先验知识;接着,将依存句法特征输入到图像描述编码器中,提取视觉实体词特征;最后,采用硬限制和软限制 2种机制,将依存句法和关系特征融合到双层LSTM,从而生成图像描述.通过依存句法三元组序列生成任务,IDSTM在未显著降低生成的图像描述精确度的前提下,提高了其可解释性.还提出了评测依存句法三元组序列生成质量的评价指标B1-DS(BLEU-1-DS),B4-DS(BLEU-4-DS),M-DS(METEOR-DS),并在MSCOCO数据集上的实验验证了IDSTM的有效性和可解释性.

    图像描述生成依存句法可解释性多任务学习

    基于双判别器对抗模型的半监督跨语言词向量表示方法

    张玉红植文武李培培胡学钢...
    2127-2136页
    查看更多>>摘要:跨语言词向量表示旨在利用语言资源丰富的词向量提高语言资源缺乏的词向量表示.已有方法学习2个词向量空间的映射关系进行单词对齐,其中生成对抗网络方法能在不使用对齐字典的条件下获得良好性能.然而,在远语言对上,由于缺乏种子字典的引导,映射关系的学习仅依赖向量空间的全局距离,导致求解的词对存在多种可能,难以准确对齐.为此,提出了基于双判别器对抗的半监督跨语言词向量表示方法.在已有对抗模型基础上,增加一个双向映射共享的、细粒度判别器,形成具有双判别器的对抗模型.此外,引入负样本字典补充预对齐字典,利用细粒度判别器进行半监督对抗学习,消减生成多种词对的可能,提高对齐精度.在 2个跨语言数据集上的实验效果表明,提出的方法能有效提升跨语言词向量表示性能.

    跨语言词向量表示对抗训练双判别器半监督

    Aitps:基于非对称模格问题的两方协同签名方案

    文嘉明王后珍刘金会张焕国...
    2137-2151页
    查看更多>>摘要:物联网和区块链等技术的兴起和发展,使得多方协同签名协议重新受到了关注.多方协同签名是一种特殊的数字签名,要求多个用户进行交互后共同对一个消息产生合法的签名,以达到认证的目的.优点在于相比起每个用户分别进行签名可以缩短尺寸,同时使用分布式的方法,任何一方都无法独自进行签名,防范了因为单个用户的密钥丢失或被劫持而导致被冒充身份的隐患.另一方面,量子计算机的进展对传统的公钥密码方案构成了潜在的威胁,美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)在 2016年启动抗量子密码(post-quantum cryptography,PQC)的国际标准征集项目,并于2022年7月确定了被选为标准的算法.同时,基于其入选的数字签名方案(例如CRYSTALS-Dilithium)的协同签名方案也已经陆续出现.2019 年,中国密码学会举办了全国密码算法设计竞赛,其中公钥组获得一等奖的Aigis-sig签名方案采用了与Dilithium类似的结构.基于Aigis-sig数字签名方案设计了一种两方协同签名方案,称之为Aitps,并根据其提供的参数进行了实例化和对比,得到了相比已有的所有基于Dilithium的两方协同签名方案更优的密钥和签名大小,例如在同等的安全强度下签名尺寸可缩减 20%以上.此外,该方案也可以扩展为多方协同签名.

    数字签名两方协同签名基于格的密码学抗量子密码密钥保护

    基于比较学习的漏洞检测方法

    陈小全刘剑夏翔宇周绍翔...
    2152-2168页
    查看更多>>摘要:当前基于深度学习的源代码漏洞检测是一种效率较高的漏洞分析方式,但其面临 2个挑战:容量较大的数据集和有效的学习方式.针对这 2个挑战做了 2方面的研究工作:首先基于SARD数据集构建了样本容量为 280793的多漏洞数据集,包含 150种CWE漏洞类型.其次提出基于比较学习的深度学习方法.其核心思想是为深度学习训练集中每一个样本构建 1个类型相同的样本集合,以及 1个类型不相同的样本集合,形成一种比较学习的氛围.基于该思想创建的训练数据集,深度学习模型在训练的过程中,不但可以学习同类型样本大量的、细微的特征,还可以提取不同类型样本中区分性较强的特征.经过实验验证,基于所创建的数据集和提出的学习方法训练的深度学习模型可以识别 150种CWE漏洞类型,准确率可以达到 92.0%,平均PR值可以达到 0.85,平均ROC-AUC值可以达到 0.96.此外,也对基于深度学习的漏洞分析技术中普遍使用的代码符号化技术进行分析与讨论.实验表明,深度学习训练过程中,是否对代码进行符号化,并不会影响深度学习模型的漏洞识别准确率.

    漏洞检测比较学习深度学习不平衡数据模型检测

    基于CLIP生成多事件表示的视频文本检索方法

    涂荣成毛先领孔伟杰蔡成飞...
    2169-2179页
    查看更多>>摘要:视频-文本检索作为一项被广泛应用于现实生活中的多模态检索技术受到越来越多的研究者的关注.近来,大部分视频文本工作通过利用大规模预训练模型中所学到的视觉与语言之间的匹配关系来提升文本视频间跨模态检索效果.然而,这些方法忽略了视频、文本数据都是由一个个事件组合而成.倘若能捕捉视频事件与文本事件之间的细粒度相似性关系,将能帮助模型计算出更准确的文本与视频之间的语义相似性关系,进而提升文本视频间跨模态检索效果.因此,提出了一种基于CLIP生成多事件表示的视频文本检索方法(CLIP based multi-event representation generation for video-text retrieval,CLIPMERG).首先,通过利用大规模图文预训练模型CLIP的视频编码器(ViT)以及文本编码器(Tansformer)分别将视频、文本数据转换成视频帧token序列以及文本的单词token序列;然后,通过视频事件生成器(文本事件生成器)将视频帧token序列(单词token序列)转换成k个视频事件表示(k个文本事件表示);最后,通过挖掘视频事件表示与文本事件表示之间的细粒度关系以定义视频、文本间的语义相似性关系.在 3个常用的公开视频文本检索数据集MSR-VTT,DiDeMo,LSMDC上的实验结果表明所提的CLIPMERG优于现有的视频文本检索方法.

    预训练模型视频文本检索事件表示CLIP模型Transformer模型

    基于图像-文本语义一致性的文本生成图像方法

    薛志杭许喆铭郎丛妍冯松鹤...
    2180-2190页
    查看更多>>摘要:近年来,以生成对抗网络(generative adversarial network,GAN)为基础的文本生成图像方法成为跨媒体融合研究的一大热门领域.文本生成图像方法旨在通过提取更具表征力的文本及图像特征,提升文本描述与生成图像之间的语义一致性.现有方法大多针对在图像全局特征与初始文本语义特征之间进行建模,忽略了初始文本特征的局限性,且没有充分利用具有语义一致性的生成图像对文本特征的指导作用,因而降低了文本生成图像中文本信息的表征性.其次,由于没有考虑到生成目标区域间的动态交互,生成网络只能粗略地划分目标区域,且忽略了图像局部区域与文本语义标签的潜在对应关系.为解决上述问题,提出了一种基于图像-文本语义一致性的文本生成图像方法ITSC-GAN.该模型首先设计了一个文本信息增强模块(text information enhancement module,TEM),利用生成图像对文本信息进行增强,从而提高文本特征的表征能力.另外,该模型提出了一个图像区域注意力模块(image regional attention module,IRAM),通过挖掘图像子区域之间的关系,增强图像特征的表征能力.通过联合利用这 2个模块,使得图像局部特征与文本语义标签之间具有更高的一致性.最后,该模型使用生成器与判别器损失函数作为约束,以提升生成图像的质量,促进图像与文本描述的语义一致.实验结果表明,在CUB数据集上,与当前主流方法AttnGAN模型相比,ITSC-GAN模型的IS(inception score)指标增长了约 7.42%,FID(Fréchet inception distance)减少了约28.76%,R-precision增加了约14.95%.大量实验结果充分验证了ITSC-GAN模型的有效性及优越性.

    文本生成图像生成对抗网络图像区域注意力文本信息增强语义一致性