Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

谷歌纠错量子计算机新里程碑,逻辑量子比特原型登上Nature

谷歌 CEO 皮查伊表示,「这项新突破让我们离大规模量子计算机更近了一步。」

谷歌量子 AI 团队又取得新进展!

今日,谷歌 CEO 桑达尔・皮查伊撰写博客,介绍了公司量子计算又向前迈了一大步。谷歌量子 AI 团队有史以来首次通过实验证明:可以通过增加量子比特的数量来减少错误。

我们知道,在量子计算中,量子比特是量子信息的基本单元,可以呈现出超越 0 和 1 的更丰富状态。谷歌今天的突破代表了操作量子计算机方式的重大转变 —— 不再一个一个地处理量子处理器上的物理量子比特,而将一组物理量子比特当作一个逻辑量子比特。

在最新的研究中,谷歌用 49 个物理量子比特制作的逻辑量子比特超越了用 17 个量子比特制作的逻辑量子比特。相关的论文《Suppressing Quantum Errors by Scaling a Surface Code Logical Qubit》在 Nature 杂志上发表,谷歌达成了其自身量子计算发展路线图(如下)上的第二个里程碑。

图片谷歌构建有用纠错量子计算机的里程碑事件路线图,目前正在构建一个将在未来进行扩展的逻辑量子比特。

实验结果展示了逻辑量子比特(纠错量子计算机的基本单元)的原型,其性能接近支持可扩展容错量子计算的状态。

图片

论文地址:https://www.nature.com/articles/s41586-022-05434-1

谷歌 CEO 皮查伊表示,「这项突破让我们离大规模量子计算机更近了一步。」

图片

从物理量子比特到逻辑量子比特

量子纠错(QEC)代表了当今量子计算的重大转变,其中处理器上的每个物理量子比特都充当一个计算单元。QEC 提供了通过「用许多 good 量子比特换取一个 excellent 量子比特」来实现低错误率的方法:信息在多个物理量子比特上进行编码,以构建一个更具弹性且能够运行大规模量子算法的逻辑量子比特。在合适的条件下,用于构建一个逻辑量子比特的物理量子比特越多,逻辑量子比特就越强。

但是,如果每个额外的物理量子比特所增加的错误超过了量子纠错带来的优势,它将行不通。因此直到现在,高物理错误率仍占据主导。

为此,团队使用了一种被称为表面码(surface code)的特定纠错代码,并首次证明了增加代码的大小(size)可以降低逻辑量子比特的错误率。对于任何量子计算平台而言,这都是有史以来的第一次,谷歌通过从 17 个物理量子比特扩展到 49 个来减少出错源而实现。这项研究表明,只要足够小心,我们就可以生成大规模纠错量子计算机所需要的逻辑量子比特。

使用表面码的量子纠错

先提一个问题:纠错码如何保护信息?举一个经典通信中的简单例子:鲍勃(Bob)想要通过一个嘈杂的通信通道向爱丽丝(Alice)发送一个读作「1」的比特。当意识到比特翻转为「0」时信息会丢失,鲍勃改为发送三个比特「111」。如果一个比特错误地翻转,爱丽丝可以对接收到的所有比特进行多数投票,并仍能理解预期信息。因此,将信息重复三遍,即增加代码的大小,可以使代码容忍更多单个错误。

图片在一种被称为表面码的纠错码中,量子处理器上的很多物理量子比特充当一个逻辑量子比特。

团队的表面码方法采用了这一原则,并设想了一个实际的量子实现。表面码必须满足两个额外的约束条件,首先必须能够纠正比特翻转以将量子比特从 |0⟩ 变为 |1⟩,还可以纠正相位翻转。这种错误是量子态特有的,可以将一个量子比特转换为叠加态,例如从 |0⟩ + |1⟩ 到 | 0⟩ - |1⟩;其次检查量子态将破坏它们的叠加态,因此需要一种无需直接测量状态即可检查错误的方法。

为了解决这些约束条件,团队在棋盘(checkerboard)上安排了两种类型的量子比特,其中顶点上的数据(data)量子比特构成了逻辑量子比特,而每个正方形中心的测量(measure)量子比特用于所谓的稳定器测量值。这些测量值展示了量子比特是否如预期那样完全相同,或者不同以表明发生了错误,但实际上并没有揭示各个数据量子比特的值。

谷歌在棋盘图案上平铺了两类稳定器测量值,以保护逻辑数据不受比特和相位翻转的影响。如果一些稳定器测量值记录下了错误,则使用它们中的相关性来确定发生以及在什么地方发生了哪些错误。

图片

就像上面的鲍勃给爱丽丝的信息的例子中,表面码规模越增加,鲁棒性越强,更大的表面码可以更好地保护它所包含的逻辑信息。表面码可以抵御一些比特和相位翻转的错误,每个错误都等于「距离」的一半以下,其中的距离是指在任一维度上横跨表层码的数据量子比特的数量。

但问题来了:每个单独的物理量子比特都容易出错,所以表面码中的量子比特越多,出错的机会就越多。谷歌希望 QEC 提供的更高保护能够超过随着增加量子比特数量而增加的错误机会。要做到这一点,物理量子比特的错误必须低于所谓的「容错阈值」。对于表面码来说,这个阈值是相当低的,直到最近它才实现在实验上可行。谷歌表示,团队正处在达到这一令人羡慕的悬崖边上。

高质量物理量子比特的制造与控制

当进入 QEC 随着规模扩大而提升的阶段,就需要改善量子计算机的各个方面了,包括从物理量子比特的纳米制造到整个量子系统的优化控制。这些实验是在最先进的第三代 Sycamore 处理器架构上运行的,团队使用表面码对 QEC 进行了优化,并进行了全面的改进:

  • 通过改进的制造工艺和减少量子处理器附近的环境噪声,提高了量子比特的松弛和去噪寿命;

  • 通过优化量子处理器的电路设计和纳米加工,降低了所有物理量子比特在并行运行期间的交叉干扰;

  • 通过升级的定制电子器件减少了漂移并提高了量子比特控制的保真度;

  • 与前几代 Sycamore 处理器相比,实现了更快、更保真的读出和复位操作;

  • 开发了上下文感知和完全并行的校准,以减少漂移并优化 QEC 电路的控制参数

  • 通过对整个量子系统进行广泛的建模并采用更好的系统优化算法,减少了校准误差;

  • 增强了动态去耦协议,以保护物理量子比特在空转运行期间不受噪声和串扰的影响。

运行表面码电路

团队在这些升级的基础上进行了实验,对比了 17 个量子比特的距离 - 3 的表面码(ε_3)与 49 个量子比特的距离 - 5 的表面码(ε_5)二者的逻辑错误率 ——𝚲_3,5= ε_3/ ε_5。

图片

实验结果如上图右侧所示,几个月来的持续改进减少了两个网格的逻辑错误,导致距离 - 5 网格(ε_5=2.914%)在 5𝚲置信度下比距离 - 3 网格(ε_3=3.028%)高出 4%(𝚲_3,5=1.04)。这似乎是一个小的改进,但重要的是,这个结果代表了自 1995 年 Peter Shor 提出 QEC 建议以来的领域内「首次」。较大的代码优于较小的代码是 QEC 的一个关键特征,所有的量子计算架构都需要通过这一障碍,以实现量子应用所需的低误差。

未来展望

这些结果表明,我们正在进入一个实用化 QEC 的新时代。谷歌量子 AI 团队在过去几年里一直在思考如何定义这个新时代的成功,以及如何衡量沿途的进展。

团队的最终目标是展示一种路径 —— 实现有意义地应用量子计算机需要的低误差。为此,团队的目标仍然是实现 QEC 每个周期的逻辑错误率为 1/10^6 或更低。在下图的左边,概述了谷歌预计达到这一目标的路径。

图片

随着团队继续改进物理量子比特(从而提高逻辑量子比特的性能),团队期望将𝚲从这项工作中的「接近 1」逐渐增加到更大的数字。如图所示,𝚲=4 的值和 17 的码距(577 个质量足够好的物理量子比特)将产生一个低于目标的 10^6 分之一的逻辑错误率。

虽然实现这个结果还需要几年的时间,但团队有一项实验技术,可以在有限的情况下用当前的硬件探测到如此低的错误率。二维表面码允许研究者同时纠正比特和相位翻转错误,但同时也允许研究者构建一维重复码,在宽松的要求下只能够解决一种类型的错误。上图的右边展示了一个距离为 -25 的重复码,可以达到每周期接近 1/10^6 的错误率。在如此低的错误率中,团队看到了新的错误机制,这些错误机制在表面码中还无法观察到。通过控制这些错误机制,可以将重复码提高到接近 1/10^7 的错误率。

自三年前展示量子计算机优于经典计算机的性能之后,这一里程碑的实现反映了整个谷歌量子 AI 团队的集中工作成果。在建立容错量子计算机的过程中,团队将继续使用上图中的目标错误率来衡量进展程度。距离下个里程碑更进一步之后,团队预计将进入容错系统,在那里可以指数级地抑制逻辑错误,并解锁第一个有用的纠错量子应用。

同时,团队将继续探索使用量子计算机解决问题的各种方法,包括凝聚态物理、化学、机器学习和材料科学等各种主题。

参考链接:

https://ai.googleblog.com/2023/02/suppressing-quantum-errors-by-scaling.html

https://blog.google/inside-google/message-ceo/our-progress-toward-quantum-error-correction/

工程量子计算
相关数据
Peter Shor人物

麻省理工学院教授。研究兴趣:量子计算、量子信息论、算法、计算几何学、组合数学、概率论。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

推荐文章
暂无评论
暂无评论~