首页|离子阱量子计算机的全量子理论及其应用

离子阱量子计算机的全量子理论及其应用

杨碧瑶

离子阱量子计算机的全量子理论及其应用

杨碧瑶1
扫码查看

作者信息

  • 1. 中国科学院大学
  • 折叠

摘要

量子计算的发展威胁着部分经典密码协议的安全性。例如,一般认为,Shor的大整数因子分解算法、离散对数算法分别会对目前广泛使用的RSA、ElGamal公钥密码算法安全性产生威胁,Grover量子搜索算法会对AES等算法安全性造成影响(导致密钥量需要加倍)。而量子计算的上述优势需要借助具体物理方案才能实现。为准确研判量子计算对密码体制安全性的影响,一方面,需要从量子计算机底层的物理模型出发,研究由于场量子化等原因,导致的理论极限;另一方面,需要从量子算法角度,分析其具体执行过程,研究上述理论极限对算法运行的影响。 针对以上两个方面,本文从量子计算机物理局限性、量子算法物理可行性两个角度进行研究。选取目前实验技术发展水平最为领先,最有可能率先实现的量子计算方案之一——离子阱进行研究,分析其场量子化后的理论极限对Shor算法、Grover算法等实现情况的影响。主要研究成果和创新点主要分为以下三个方面: 1.研究驱动场量子化条件下的物理局限性。基于激光场实质上是量子化场,准确的演化过程应遵循量子力学规律这一现实,采用“全量子”方法,得出Cirac-Zoller离子阱量子计算模型下,量子化场与量子比特系统的准确演化。进而,从实际量子计算场景出发,分析得到当平均光子数达到所允许的上限值时,1次受控非(CNOT)门操作后控制位和目标位错误率均可达到10-4,从而得到容错量子计算相邻纠错之间,单个物理量子比特上CNOT门操作数上限为102。而后,还分析得出当平均光子数为106量级、单量子比特门包含的T门和H门总数为nTH时,一次单量子比特门操作后错误率可达到10-7nTH。最后给出离子阱量子计算机中有效平均光子数上限估计,为2×104。 2.研究驱动场量子化导致的物理局限性下,量子算法的物理可行性。以上述驱动场量子化条件下的物理局限性为基准,研究了在典型容错编码方案(CSS码)下,典型算法(Shor算法、Grover算法等)的实现可行性。首先考虑编码步骤,发现对于Cirac-Zoller离子阱量子计算模型,级联编码层数k须不大于9。进而,选取量子傅里叶变换以及模幂运算,分析得到单量子比特上的CNOT门操作数上限为14,暂未超过容许逻辑深度。但考虑到容错量子计算中需包括编码环节,因此若采用级联编码,单量子比特上的操作数仍然可能超过允许值。之后,采用类似方法,分析了Grover算法中的核心部件——Grover迭代中,单个物理量子比特上相邻编码之间CNOT操作数,和容许逻辑深度值比较,也得到了类似结果。 3.研究声子速度这一物理局限性,以及量子算法的相应物理可行性。在他人前期工作基础上,进一步研究声子速度极限对量子算法实现的影响。一方面,根据Divincenzo提出的有关判据,分析得到离子阱量子计算机在100年内只能执行小于249次量子傅里叶变换;进而得出即使利用地球上所有物理资源,离子阱量子计算机仅能完成284次量子傅里叶变换。另一方面,分析得到离子阱大规模化模块化和离子间距减小都不会影响杨理老师等人前期的工作结果:对于Shor整数分解原始方案,在Steane码编码条件下,Cirac-Zoller离子阱量子计算机无法在密码分析上有意义的时间内完成Shor整数分解量子算法。

关键词

密码协议/量子计算/离子阱量子计算机/全量子理论

引用本文复制引用

授予学位

博士

学科专业

信息安全

导师

杨理

学位年度

2021

学位授予单位

中国科学院大学

语种

中文

中图分类号

TN
段落导航相关论文