摘要
神经网络的快速发展推动了人工智能领域的革命性进步,在广泛的应用领域中取得了令人瞩目的成果。然而,它对计算能力和内存资源的高要求限制了其对海量高维数据的处理,亟需探究数据计算的新方式。量子计算依托量子态之间的纠缠、叠加和幺正演化等特性来解决问题,具有经典计算无法比拟的信息处理能力。因此,将量子计算应用于神经网络算法的量子神经网络应运而生,该技术不仅可以解决神经网络的计算效率问题,还可以用来开发更加智能的算法,已成为量子计算领域最前沿的研究方向之一。然而,当前的量子神经网络模型中仍存在模型收敛困难、训练效率较低、现实应用研究欠缺等问题。此外,量子线路深度受限于现阶段含噪声的中等规模量子器件(NoisyIntermediate-ScaleQuantum,NISQ)及退相干时间的限制,需要有效降低量子线路的深度以推动量子神经网络算法的实用化。 基于上述问题,本文利用量子态制备、参数化量子线路、量子参数优化等技术,设计并实现了量子卷积神经网络模型和混合量子经典长短期记忆网络模型,分别用于解决监督学习中的分类和回归任务。具体研究内容与成果如下: (1)提出了基于振幅变换的量子卷积神经网络(AmplitudeTransformedQuantumConvolutionalNeuralNetwork,ATQCNN),通过改变量子态的振幅来调整模型探索解集的矢量空间,利用量子态特性实现卷积层、池化层和全连接层的量子化,设计了只需要两个量子比特相互纠缠的低深度参数化量子线路,构建了一个具有较低深度、较少参数和全局相关的量子卷积神经网络框架。在相同规模的量子比特下,ATQCNN模型与其他QCNN模型相比,实现准确率更高、收敛速度更快、鲁棒性更好的同时,所需的参数和深度减少了约27%,训练效率提升了35%。 (2)提出了混合量子经典长短期记忆网络(HybridQuantum-classicalLongShort-TermMemory,HQLSTM),该模型将经典的LSTM扩展到量子领域,采用参数化量子线路替换LSTM细胞单元中的经典神经网络,发挥特征提取和数据压缩的作用,同时利用量子纠缠赋予模型更强的表达能力,以实现量子技术的性能提高。采用量子参数优化算法进行参数更新,进一步提升模型的训练效率。实验结果表明,在相似数量的网络参数下,HQLSTM模型表现出了较经典LSTM模型更稳定的收敛性和更强的学习能力。并观察到噪声对模型性能的影响有限,适用于当前的NISQ器件。 本文充分利用经典计算资源和量子计算资源的优势,设计并实现了两种量子神经网络模型,并将其应用到不同的领域,取得了较好的效果,为当下在含噪声的中等规模量子器件上探索量子神经网络提供思路,为人工智能应用提供了更多的选择。