Jarrod McClean等作者李亚洲 王淑婷编译

好嗨哟~谷歌量子神经网络新进展揭秘

量子计算碰上机器学习,谷歌今日的博客介绍了他们在量子神经网络方面的最新进展。

谷歌人工智能量子团队自成立以来,一直致力于理解量子计算在机器学习中的作用。现有算法对全局优化的作用表明,量子计算机可能有助于更快地训练机器学习中的现有模型,因此谷歌正在构建实验型的量子计算机来调查复杂的量子系统是如何进行这些计算的。虽然这项研究可能很有价值,但还无法证明量子计算机能够提供一种方式来了解物理系统中的复杂模式,这一点传统的计算机任何时候都无法做到。

谷歌人工智能量子团队最近发表了两篇论文,这两篇论文在理解量子计算机对学习任务的作用方面取得了进展。第一篇论文构建了一个神经网络的量子模型,来研究如何在量子处理器上执行分类任务。在第二篇论文中,谷歌展示了量子几何的独特特征是如何改变了训练这些网络的策略的,并为更稳健的网络训练提供了指导。

在论文《Classification with Quantum Neural Networks on Near Term Processors》中,谷歌构建了一个量子神经网络(QNN),该模型专为短期内可能出现的量子处理器而设计。虽然目前的工作主要都是理论上的,但它们的结构有助于在不久的将来在量子计算机上进行的实现和测试。这些 QNN 可以通过标记数据的监督学习来调整,谷歌表明有望训练 QNN 在著名的 MNIST 数据集上进行图像分类任务。用更大的量子设备跟踪这一领域的研究可能会导致量子网络学习模式的能力不如流行的经典网络。

论文链接:https://arxiv.org/abs/1802.06002

量子神经网络进行分类。上图描述了一个简单的量子神经网络,相比于典型深度神经网络中的隐藏层,图中的方框表示纠缠行为或者说是「量子门」。在超导量子位环境中,可以通过对应每个方框的微波控制脉冲实现这一点。

在论文《Barren plateaus in quantum neural network training landscapes》中,谷歌聚焦于量子神经网络的训练、探查经典神经网络中的关键难题,即梯度消失、爆炸的问题。在传统神经网络中,神经元权重较好的无偏见初始猜测大多与随机性有关,尽管有时也有些困难。这篇论文表明,量子几何的独特特征能够明确地防止梯度问题成为量子案例中的好策略,相反它会带你进入贫瘠的高原(barren plateaus)。该研究可能为未来初始化、训练量子神经网络时提供策略。

论文链接:https://www.nature.com/articles/s41467-018-07090-4

QNN 梯度消失:高维空间的测量浓度。在高维空间中,如量子计算机这样的探索,大量的状态反常识地处于超球面中纬线(左图)的附近。这意味着在随机选择时(右图),这一空间中的任意平滑函数将大概率倾向于采取接近平均值的数值。

该研究为构建、训练量子神经网络提供了改进的阶梯。特别是,使用谷歌硬件对量子神经网络的实验实现,能够让我们在近期内快速探索量子神经网络。谷歌研究团队希望源自这些几何学状态的洞见能带来训练这些网络的新算法,这也是解锁未来潜力的重要之处。

原文链接:https://ai.googleblog.com/2018/12/exploring-quantum-neural-networks.html 

理论量子神经网络量子计算谷歌
1
相关数据
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

量子神经网络技术

将量子理论与神经计算相结合是美国路易斯安那(Louisiana) 州立大学Kak 教授的创举,他在1995年发表的“On Quantum Neural Computing”一文首次提出量子神经计算的概念,开创了该领域的先河。同年英国 Sussex大学的Chrisley提出了量子学习(Quantum Learning)的概念,并给出非叠加态的量子神经网络模型和相应的学习算法。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

图像分类技术

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~