首页期刊导航|计算机研究与发展
期刊信息/Journal information
计算机研究与发展
计算机研究与发展

徐志伟

月刊

1000-1239

crad@ict.ac.cn

010-62620696;62600350

100190

北京中关村科学院南路6号

计算机研究与发展/Journal Journal of Computer Research and DevelopmentCSCD北大核心CSTPCDEI
查看更多>>本刊是中国科学院计算技术研究所和中国计算机学会联合主办、科学出版社出版的学术性刊物、中国计算机学会会刊,我国第一个计算机刊物。主要刊登计算机科学技术领域高水平的学术论文、最新科研成果和重大应用成果。
正式出版
收录年代

    前言

    孙晓明
    1821-1822页

    量子优化算法综述

    何键浩李绿周
    1823-1834页
    查看更多>>摘要:量子优化是量子计算领域近年来颇受关注的一个研究分支,主要研究如何利用量子计算加速优化问题的求解.根据优化问题的变量是否连续分类梳理量子优化算法,侧重介绍连续变量优化算法.通过对现存工作的调研梳理得到一些观察:1)5~20年前的研究主要集中在离散变量的量子优化技术,近5年的研究则更关注连续变量的量子优化技术;2)量子优化使用的主要基础技术都是10~20年前提出的,在基础技术方面需要进一步革新;3)量子优化算法相比于对应的经典算法通常在理论上有加速优势,既有体现在时间复杂度的加速,也有体现在查询复杂度的加速,但仍然有待更为严格的理论分析;4)优化领域依然存在许多值得量子计算研究人员探索的问题,特别是非凸优化领域,亦即经典计算上认为较难的优化问题.

    量子计算量子优化数学规划离散变量优化连续变量优化

    量子谱回归算法

    潘世杰高飞万林春秦素娟...
    1835-1842页
    查看更多>>摘要:子空间学习是机器学习领域的重要研究方向.为了降低子空间学习的复杂度,Cai等人提出了谱回归降维框架,并针对结合标签构造对应图的子空间学习提出了高效谱回归.近年来,量子计算的发展使进一步降低子空间学习算法的复杂度成为了可能.Meng等人率先提出了量子谱回归算法(MYXZ算法).MYXZ算法用了稀疏哈密顿量模拟技术来处理由权重矩阵生成的矩阵,但这个矩阵在较多的情况下是稠密矩阵.针对这种情况,指出了MYXZ算法的局限性,提出了一个改进的量子谱回归算法.改进算法采用了量子奇异值估计技术,在处理稠密矩阵时相对MYXZ算法有多项式加速.另外,提出了一个新的量子算法,对经典的高效谱回归进行加速.新算法能处理的这类问题是MYXZ算法无法处理的.新算法利用了量子岭回归和量子矩阵向量乘技术,在相同的参数条件下相对经典算法具有多项式加速效果.

    量子算法量子机器学习谱回归子空间学习稠密矩阵

    量子错误缓解研究进展

    张宇鹍袁骁
    1843-1855页
    查看更多>>摘要:由于与环境的相互作用及对量子设备的控制中存在的偏差,量子设备总是在不断产生错误.若不对这些错误加以处理,错误的积累会使得量子算法的实施变得毫无意义.成熟量子计算机的实现依赖于量子纠错技术以纠正量子设备中的错误.然而,由于量子纠错开销巨大,其难以在近期量子设备中实现.故在有噪声中等尺寸量子时代,以变分量子求解器为代表的量子算法选择量子错误缓解技术来压制错误,而非纠正它们.量子错误缓解允许仅通过中等大小的额外资源获得可以接受的计算精读,并已在理论及实验上展示出其可行性.旨在介绍与总结量子错误缓解领域的最新进展,并展望该技术未来发展的前景与方向.

    量子计算近期量子设备量子错误缓解量子算法有噪声的中等尺寸量子时代

    面向超导量子计算机的程序映射技术研究

    窦星磊刘磊陈岳涛
    1856-1874页
    查看更多>>摘要:量子程序在量子计算机上执行时可能由于噪声产生错误.先前的量子程序映射策略将量子程序映射至量子计算机中的最健壮的区域上,以获得更高的保真度.在量子计算机上同时映射多个量子程序可以提升量子计算机的通量和资源利用率.但由于健壮资源稀缺、资源分配冲突,并发量子程序映射会导致整体可靠性下降.介绍了量子程序映射,对相关研究进行分类,并深入分析了其特点与区别.此外,针对并发量子程序映射问题提出了一种新的映射策略,包括3个关键设计:1)提出了社区发现辅助量子位划分算法.结合拓扑结构和错误率数据为并发量子程序进行物理量子位划分,提升初始映射可靠性,避免健壮资源的浪费.2)引入了跨程序SWAP操作,降低了并发量子程序的映射开销.3)提出了一种量子程序映射任务的调度框架,用于动态选取并发量子程序,在保证量子计算机保真度的前提下,提升了通量.所提策略较先前工作在程序执行保真度上提升了8.6%,节省了11.6%的映射开销.所设计的系统是一个面向量子计算机的操作系统原型——QuOS.

    量子计算并发程序映射保真度任务调度

    一种面向含噪中尺度量子技术的量子-经典异构计算系统

    付祥郑宇真苏醒于锦涛...
    1875-1896页
    查看更多>>摘要:量子计算有望加速解决经典计算难以解决的问题,如质因子分解、量子化学模拟等.已有单个量子系统可集成大于50个含噪声的固态量子比特,并在特定的计算任务上超越了经典计算机,标志含噪中尺度量子(noisy intermediate-scale quantum,NISQ)计算时代的到来.随着人们可在单个系统中集成越来越多的量子比特,如何将量子比特与控制硬件、软件开发环境、经典计算资源集成得到完整可用的量子计算系统,是一个有待进一步明确的问题.对比了量子计算与经典计算在控制及执行上的异同,并在此基础上提出了面向NISQ时代的量子-经典异构系统.以一个典型的NISQ算法(迭代相位估计算法)为例,介绍了量子算法从软件描述到硬件执行的整体流程,及与该过程相关的高级程序设计语言、编译器、量子软硬件接口和硬件等.在此基础上,讨论了流程中各个层次在NISQ时代面临的挑战.旨在从工程实现的视角,从宏观层面为读者(尤其是量子计算初学者)介绍量子计算系统,希望可以促进人们对NISQ时代下量子计算系统整体结构的理解,并激发更多相关研究.

    量子计算量子程序设计语言量子编译量子计算体系结构含噪中尺度量子

    两硬币量子游走模型中的相干动力学

    李萌尚云
    1897-1905页
    查看更多>>摘要:量子游走是量子计算的重要模型,而多硬币量子游走模型由于在量子通讯协议中表现突出也越来越受到人们的关注.量子相干不仅可以刻画量子态的特点,也可以反映量子演化过程的性质.主要对一维圆上两硬币量子游走模型的量子相干性进行了分析.一方面,讨论了初始量子态和硬币算子的选取对量子相干的影响.当硬币算子为Hadamard算子且初态只要在位置子空间上是均衡叠加态,整个量子游走演化过程是具有周期性的,且量子相干仅依赖于步数和圆上顶点的个数;当初始态是均衡叠加态而对硬币算子没有任何限制时,量子相干的演化也极具规律性.另一方面,发现在利用量子游走实现完美状态转移(perfect state transfer)的过程中,硬币算子的选取直接影响量子相干的值.最后,探讨了2种量子游走模型之间的等价性,并基于此指出了其在量子隐形传输(quantum teleportation)中的应用和改进的可能性.

    量子游走两硬币量子相干状态转移量子隐形传输

    量子假设检验互信息

    张淑仪席政军
    1906-1914页
    查看更多>>摘要:von Neumann互信息是Shannon互信息在量子信息中的推广,在量子信道容量中有非常好的应用.由于量子态的非对易性,许多经典信息论中的量化在量子信息中有完全不等价的推广定义.量子假设检验相对熵来自于假设检验问题,是量子信息处理中常用的基本量化之一.使用量子假设检验相对熵讨论量子互信息.首先讨论量子假设检验相对熵的一些基本性质,并给出该量化和其他量子广义熵之间的关系.然后结合相对熵的性质,给出量子假设检验互信息的定义,并讨论其性质,比如:数据处理不等式.通过互信息与条件熵之和重点讨论互信息的链式法则.

    量子假设检验相对熵互信息条件熵链式法则

    基于文档的对话研究

    孙润鑫马龙轩张伟男刘挺...
    1915-1924页
    查看更多>>摘要:基于文档的对话是目前对话领域一个新兴的热点任务.与以往的任务不同,其需要将对话信息和文档信息综合进行考虑.然而,先前的工作着重考虑二者之间的关系,却忽略了对话信息中的句子对回复生成的作用具有差异性.针对这一问题,提出了一种新的辩证看待对话历史的方法,在编码阶段讨论利用历史和忽略历史2种情况进行语义信息的建模,并采用辩证整合的方式进行分支信息的汇总.由此避免了在历史信息与当前对话不相关时,其作为噪声被引入进而损害模型性能,同时也强化了当前对话对信息筛选的指导作用.实验结果表明,该模型与现有基线模型相比,能够生成更为符合当前语境且信息量更加丰富的回复,从而说明其能够更好地理解对话信息并进行知识筛选.并且通过进行消融实验,也验证了各模块在建模过程中的有效性.

    基于文档的对话回复生成信息筛选Transformer模型注意力机制

    基于深度学习的数据库自然语言接口综述

    潘璇徐思涵蔡祥睿温延龙...
    1925-1950页
    查看更多>>摘要:数据库自然语言接口(natural language interface to database,NLIDB)能够凭借自然语言描述实现数据库查询操作,是促进用户无障碍地与数据库交互的重要工具.因为NLIDB具有较高的应用价值,近年来一直受到学术与商业领域的关注.目前成熟的NLIDB系统大部分基于经典自然语言处理方法,即通过指定的规则实现自然语言查询到结构化查询的转化.但是基于规则的方法仍然存在拓展性不强的缺陷.深度学习方法具有分布式表示和深层次抽象表示等优势,能深入挖掘自然语言中潜在的语义特征.因此近年来在NLIDB中,引入深度学习技术成为了热门的研究方向.针对基于深度学习的NLIDB研究进展进行总结:首先以解码方法为依据,将现有成果归纳为4种类型分别进行分析;然后汇总了7种模型中常用的辅助方法;最后根据目前尚待解决的问题,提出未来仍需关注的研究方向.

    自然语言接口数据库SQL深度学习语义分析