谷歌量子计算登上Nature封面,首次实现量子优越性,里程碑式突破

这是量子计算领域的里程碑事件:谷歌在被称为「量子优越性」方向上的重大突破研究,登上了《自然》杂志 150 周年版的封面。

它或许标志着量子计算正在走向实用化:谷歌已经利用一台 54 量子比特的量子计算机实现了传统架构计算机无法完成的任务。在世界第一超算需要计算 1 万年的实验中,量子计算机只用了 3 分 20 秒。

今年 9 月,一篇名为《Quantum supremacy using a programmable superconducting processor》的论文自 NASA 网站上传出,其中研究人员提出了这一主张,虽然论文很快就被删除,但这一消息引起了人们的广泛关注。

「量子优越性」(Quantum supremacy)的实现令人激动(谷歌官方建议此翻译,而非量子霸权),不过也引发了人们对于研究真实性的质疑。所幸同行评审并没有让我们等待很久,在刚刚出版的《自然》杂志 150 周年特刊封面上,我们看到了这篇论文。

论文的发表也意味着谷歌的研究得到了业内人士的认可。谷歌 CEO 桑达尔·皮查伊第一时间发文表示祝贺:「随着我们扩展了计算的可能性,我们也解锁了全新的计算……量子计算容易出错,但我们的实验表明:量子计算机也可以在计算中减少错误,并扩展达到超越经典计算机的程度。」

「对于科学技术领域的研究者来说,这是人们期待已久的一句『Hello World』——迄今为止,量子计算实用化最有意义的一个里程碑,」皮查伊表示。「我们可以把它比作为人类打造出了第一个脱离地球引力束缚,触碰太空边缘的火箭。」

这一成果,源自科学家们不懈的努力。谷歌在量子计算方向上的研究已经过去了 13 年。2006 年,谷歌科学家 Hartmut Neven 开始探索有关量子计算加速机器学习的方法。这项工作推动了 Google AI Quantum 团队的成立。2014 年,John Martinis 和他在加利福尼亚大学圣巴巴拉分校(UCSB)的团队加入了谷歌的工作,开始构建量子计算机。两年后,Sergio Boixo 等人的论文发表,谷歌开始将工作重点放在实现量子计算优越性任务上。

如今,该团队已经构建起世界上第一个超越传统架构超级计算机能力的量子系统,可以进行特定任务的计算。

谷歌 CEO 桑达尔·皮查伊和圣芭芭拉实验室中谷歌的量子计算机。

谷歌也在昨天发布的博客中介绍了这项重要研究:

近 30 年来,物理学家们一直在讨论量子计算的威力,但一直有人在问:量子计算有用吗?值得投资吗?对于如此大规模的工程,制定决定性的短期目标是良好的工程实践,可以弄清楚设计方向是否正确。因此,谷歌设计了一个实验,作为回答这些问题的一个重要里程碑。这个实验被称为「量子优越性」(quantum supermacy)实验,指引谷歌的团队克服了量子系统很多固有的技术难题,使得量子计算机可编程并且功能强大。为了测试整个系统的性能表现,谷歌的研究者选择了一个敏感的计算基准,即使是计算机的单个组成部分不够好,整个系统也无法在该基准上取得成功。

近日,谷歌在《Nature》期刊上发表了这个实验的结果。他们开发了一个 54 量子比特的计算机——「Sycamore」,其中包含快速、高保真度的量子逻辑门,以执行基准测试。Sycamore 在 200 秒内完成了目标计算。根据实验得出的测量结果,谷歌断定,世界上最快的超级计算机需要 1 万年才能输出类似的结果。

左:Sycamore 量子计算机悬在低温恒温器中的艺术加工图;右:Sycamore 的照片。

实验

要了解这个基准的工作原理,可以想象成几个热衷于量子计算的新手去访问谷歌的实验室,想在实验室的新量子计算机上运行一个量子算法。他们可以根据基本门操作词典来写算法。由于每个门都有误差率,这些新手就想把自己限制在一个适度的序列,总共有大约 1000 个门。假设这些编程者没有任何经验,他们就会创建一个看起来似乎是随机的门序列,你可以把它想象成量子计算机的「hello world」程序。由于随机电路中没有经典算法可以利用的结构,模拟这些量子电路通常需要花费大量的经典计算机算力。

随机量子电路在量子计算机上的每次运行都会产生一个比特串,如 0000101。由于量子干扰的存在,当多次重复实验时,某些比特串比其他一些更容易出现。然而,随着量子比特数量(宽度)和门循环数量(深度)的增加,在经典计算机上为随机量子电路找到最可能的比特串的难度会以指数的形式增加。

展示谷歌量子优越性的流程图。

在实验中,谷歌首先运行了 12 到 53 个量子比特的随机简化电路,以保持电路深度恒定。然后,他们利用经典模拟来检验量子计算机的性能,并与理论模型进行对比。在证实系统能够正常工作后,谷歌运行了电路深度不断增加的 53 量子比特的随机硬件电路,直到达到经典模拟不可行的点。

根据薛定谔-费曼(Schrödinger-Feynman)算法的量子比特数和周期数来评估量子优越性电路的验证时间。红色星星表示实验电路的估计验证时间。

此结果是对扩展后的邱奇-图灵论题(the Church-Turing thesis)的第一个实验性挑战。该论题指出,经典计算机可以有效地实现任何「合理的」计算模型。

谷歌表示,「如今有了第一个无法在经典计算机上进行合理模拟的量子计算,我们开辟了一个新的计算领域。」

谷歌 Sycamore 量子处理器

量子优越性实验是在一个名为 Sycamore 的 54 量子比特的完全可编程处理器上运行的。该处理器包含一个二维网格,网格中的每个量子比特与其他四个相连。所以,芯片具有足够的连通性,量子比特状态可以在整个处理器中快速地进行交互,使得完整状态无法使用经典计算机进行有效地模拟。

谷歌 Sycamore 量子处理器。

量子优越性实验的成功归功于谷歌改进了具有增强并行性的双量子比特门,即使同时操作多个门,也能可靠地实现记录性能。谷歌使用一种新型的控制旋钮来实现这一性能,该旋钮能够关闭相邻量子比特之间的交互。此举大大减少了这种多连通量子比特系统中的误差。此外,通过优化芯片设计来降低串扰,以及开发避免量子比特缺陷的新控制校准,谷歌进一步提升了性能。

谷歌在二维正方形网格中设计了电路,其中每个量子比特与其他四个相连。该架构还能向前兼容,从而实现量子误差的修正。54 量子比特的 Sycamore 处理器则是谷歌一系列功能更强大量子处理器的先驱。

热点图展示了所有量子比特运算模拟单比特和双比特的 Pauli error 值。排列图表示量子比特在处理器上的分布。

测试量子物理

为了确保量子计算机在未来的实用性,谷歌还需要验证没有来自量子力学的基础障碍。通过实验检验理论极限,是物理学的悠久历史,因为人们以非常不同的物理参数为特征探索新状态时,常常会发现新的现象。

谷歌先前的实验表明,量子力学可扩展的状态空间预期可达到 1000 倍。而在这项研究中,谷歌将该测试大小扩展到 10 万亿,发现一切仍然按预期可行。谷歌还通过测量两个量子位门的误差来验证基础的量子理论,发现它可以准确预测整个量子优越性电路的基准测试结果。

这表明没有预期外物理现象,可以降低谷歌量子计算机的性能。因此,谷歌表示他们的实验证实,根据理论更复杂的量子计算机也是可行的,谷歌对继续扩大规模也充满信心。

应用

Sycamore 是完全可编程的,可以运行通用量子算法的量子计算机。自从去年春季获得量子优越性成果以来,谷歌团队一直在致力于短期可做到的应用,包括量子物理学模拟和量子化学,以及生成机器学习其其他领域的新应用等。

下一步计划

该团队接下来的两个主要目标都是希望找到量子计算的有价值应用。首先在未来,谷歌将向其合作者、学术研究人员以及对开发算法和搜索当前 NISQ 处理器应用感兴趣的公司提供自己具有优越性的处理器。具有创造力的研究人员是最为重要的创新资源,所以既然已经拥有新的计算资源,谷歌则希望更多的研究人员能够进入该领域,并尝试进行一些有用的发明。

其次,谷歌对其团队和技术进行投资,从而能够尽快创建容错的量子计算机。此类设备具有很多有价值的应用场景。例如,我们可以设想量子计算机帮助设计新材料——用于汽车和飞机的轻量级电池、能够更有效地生产化肥的新催化剂(当前这一过程产生了全球 2% 以上的碳排放量)以及更有效的药物。但需要指出的是,实现必要的计算能力依然需要多年艰苦的工程和科研工作。但现在前进的道路非常明确,谷歌渴望在量子领域取得更多进展。

构建量子计算机是人类了解世界的重要方向——尽管宇宙从根本上来说是构建于量子体系之上的,但长久以来人们对于量子理论知之甚少。实际上,量子力学的很多原理与人类对于自然界表面现象的观察完全矛盾。当然,量子力学的性质也有着巨大的计算潜力。

「尽管我们对未来的光明道路感到兴奋,但也对目前为止经历的旅程感到谦卑,」桑达尔·皮查伊表示。「我们需要谨记诺贝尔奖获得者理查德·费曼的名言『如果你自认为了解量子力学,你就并不了解量子力学』。」

参考内容:

https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html

https://blog.google/perspectives/sundar-pichai/what-our-quantum-computing-milestone-means

谷歌「量子优越性」Nature 封面论文:

https://www.nature.com/articles/s41586-019-1666-5

理论量子霸权谷歌超级计算机量子计算机量子计算
31
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

量子力学技术

量子力学(Quantum Mechanics),为物理学理论,是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论。

推荐文章
北美又一次领先了~