Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

上交大&南科大最新PRL论文:成功用机器学习实现量子态分类器

据机器之心了解,近日,上海交通大学金贤敏研究团队在人工智能与量子信息技术交叉领域取得重要突破。金贤敏研究团队与南方科技大学翁文康教授合作,首次将机器学习技术应用于解决量子信息难题,实验实现了基于人工神经网络的量子态分类器。成果以「Experimental Machine Learning of Quantum States」为题刊发在国际物理学权威期刊《物理评论快报》上。


将传统的量子力学贝尔不等式对应到人工神经网络,实现量子态分类器

据介绍,目前学术界对量子机器学习这一交叉领域包括两方面研究:一方面是利用量子力学的相干叠加或者纠缠等特性,构建能有实现加速的量子机器学习算法,如量子版本的 PCA 和 SVM 算法,以及能有效解决线性方程组求解的 HHL 算法等;另一方面,经典人工智能算法作为一种研究工具,能提供有效的信息提取和分类,如果可以建立起物理难题到人工智能算法的映射,就能够有效解决这些问题,目前已在理论上成功用于研究相变、多体物理等问题,但由于调控技术限制,罕有实验方面的研究。

2017 年,翁文康教授提出一种全新的理论模型 [arXiv: 1705.00813 (2017)],将量子力学中贝尔不等式测量参数对应到人工智能网络,成功简化了传统上被认为是一项资源消耗度相当高的量子态分类问题

量子态分类器实验装置 上海交通大学金贤敏研究团队利用时间混态技术成功在实验上演示了量子态分类器,实验证明无论在判别阈值和性能上,人工智能的量子态分类器均远优于贝尔不等式检验的方法,研究团队在实验中分别各制备了超过 1000 种量子态用于分类器的训练和检验,分类器能够以 99.7% 的高匹配度识别出不同类别的量子态,分析出不同类纠缠的动态边界。

不同于以往单纯从理论上对量子机器学习的研究,研究团队发现通过实验中真实获得的数据来训练量子态分类器,其识别匹配度优于单纯使用计算机生成数据进行训练的量子态分类器。这说明机器学习的过程必须考虑到真实的实验环境和噪声,对学习优化的参数进行适当调整,并发现仅仅从理论上去研究量子机器学习是有其局限性的,需要更多地从实验上考察量子机器学习的表现和效率。通过一个简单的实例就能明白:对于一个汽车图像识别的机器学习程序,如果仅仅用计算机生成的建模去用作训练集,当遇到不同天气、不同光照条件下的真实汽车图片时,其识别率必然会受到影响,只有用完全真实环境下的数据来作为训练集,才能更真实地反映出问题本质,从而更好地面向实用化进程。

这项研究首次从实验上演示了机器学习算法用于解决量子信息难题,标志着机器学习与量子信息的深度交叉,以及向发展各种衍生技术迈出了重要一步。可以预期,未来机器学习作为一种全新的工具,能够有助于解决更多的物理难题,同时这类研究也能加深人类对机器学习机制的理解,催生出更多的人工智能框架与结构。

实验对比线性优化与非线性优化的量子态识别结果,带有隐藏层的神经网络能正确地预测不同类纠缠的动态边界

金贤敏研究团队一直致力于量子信息技术研究,2017 年实现了国际上首个海水量子通信实验,首次实验上有力验证水下及空海一体量子通信的可行性。不久之前,研究团队在美国《科学》子刊《科学进展》上报道了世界最大规模光量子计算芯片,并演示了首个真正空间二维的随机行走量子计算


文章链接:https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.120.240501


产业上海交通大学量子计算机器学习
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

量子机器学习技术

量子机器学习是量子物理学和机器学习交叉的一个新兴的交叉学科研究领域。人们可以区分四种不同的方式来结合这两个父类学科。量子机器学习算法可以利用量子计算的优势来改进经典的机器学习方法,例如通过在量子计算机上开发昂贵的经典算法的有效实现。 另一方面,可以应用经典的机器学习方法来分析量子系统。 一般来说,可以考虑学习装置和所研究的系统都是完全量子的情况。

推荐文章
暂无评论
暂无评论~