Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器之心编辑部机器之心报道

高通AI研究院提出通过量子场论,可将深度神经网络映射到量子计算机

来自高通 AI 研究院的学者提出,通过量子场论将深度神经网络直接映射到光学量子计算机上,这一研究发现,为未来开发新型量子神经网络架构铺平了道路。

日益复杂和强大的体系架构的发展让深度学习(DL)已经扩展到了大型、异构、复杂和多类问题。伴随而来的是,用于计算的 DL 训练算法变得非常昂贵。随着摩尔定律接近极限,AI 领域正在寻求新的解决方案来解决此问题。

量子计算设备的出现,或许可以打破经典计算和热力学限制,但借助量子计算进行 DL 的研究仍处于起步阶段。此外,目前尚不清楚如何将神经网络映射量子计算机。

针对上述问题,来自高通 AI 研究院的两位学者提出了深度学习量子场理论形式化,其中输入信号在高斯态中进行编码。他们展示了将线性和非线性层表征为单一量子门,并将量子模型的本征激发解释为粒子,这种粒子被称为「Hintons」。

除了为研究神经网络打开新视角、提供新技术之外,这种量子公式化非常适合光学量子计算,并提供了可以在光学量子计算设备上高效运行的神经网络量子变形。最后,研究者探讨了适合经典模拟的量子变形模型的半经典极限。

有意思的是,论文中出现的「Hintons」是对 Geoffrey Hinton 的致敬。

论文地址:https://arxiv.org/pdf/2103.04913.pdf

研究主要贡献

本文的主要贡献可以概括为以下四点:
  • 展示了如何使用高斯态进行贝叶斯推理;

  • 设计实现标准非线性的幺正算符;

  • 提出量子网络的当前可控极限;

  • 讨论如何在量子计算机上实现所提出的模型。

首先,研究人员回顾了概率数值神经网络的框架,该算法对有缺失数据的输入信号进行分类,使用高斯过程 (GP) 对信号进行插值,并使用 GP 表示定义神经网络

然后,该研究引入了一系列量子操作,泛化了概率数字神经网络的经典层。首先,研究人员展示了如何对高斯态进行贝叶斯推理,从而使量子纠缠能够表示智能体对离散化错误的不确定性。在下一步中,将展示如何实现作用于量子场的线性层的量子等效,就像经典线性层作用于经典场一样。

最后,研究人员解释了如何在量子模型中嵌入经典神经网络。他们将由此产生的模型解释为量子模型的半经典极限。具体而言,该模型使用量子力学的元素(协方差的不确定性关系)和经典力学的非线性元素(类似于经典非线性,量子非线性作用于量子场)。

神经网络的层次结构。

性能测试

为了测试半经典神经网络的性能,研究人员在一台光学量子计算机上实现了它,实验表明结果符合预期。

下图中,该研究提出的模型在量子光学硬件中实现的高层级描述。输入信号为 X_1、 X_3,对应观测值为 y_1、y_3,中间值 X_2 处的信息丢失了。然后研究人员为所有位置 X_1、X_2、X_3 准备激光束,并使用量子 GP(QGP)推断来创建后验状态。然后,该研究应用一系列线性和非线性层,直到检测器测量到一个可观测值,得到分类输入信号的 C 类。

此外,研究人员还提出了该领域令人兴奋的未来发展方向,例如研究更接近完整量子模型的近似解,找到在量子硬件上进行量子 GP 推理的有效方法,以及进一步发展量子非线性和经典模型的量子形式。
理论光学量子计算机深度学习量子场论
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

插值技术

数学的数值分析领域中,内插或称插值(英语:interpolation)是一种通过已知的、离散的数据点,在范围内推求新数据点的过程或方法。求解科学和工程的问题时,通常有许多数据点借由采样、实验等方法获得,这些数据可能代表了有限个数值函数,其中自变量的值。而根据这些数据,我们往往希望得到一个连续的函数(也就是曲线);或者更密集的离散方程与已知数据互相吻合,这个过程叫做拟合。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

量子力学技术

量子力学(Quantum Mechanics),为物理学理论,是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论。

暂无评论
暂无评论~