Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

参与李泽南 杜伟

机器学习控制量子比特,速度提升4倍:新方法已上Nature子刊

机器学习不仅能够搜索和分析数据,还能自动测量并帮助人们快速操作。牛津大学等机构的新研究为多量子比特量子计算机的发展奠定了基础。

量子点中单个电子的自旋可以充当量子计算机最小的信息单元。来自牛津大学、巴塞尔大学和兰卡斯特大学的科学家们已经开发了一种算法,可用于自动测量量子点。他们的研究已经登上了最近一期自然杂志子刊《Quantum Information》。

通过机器学习方法,研究人员可以将测量量子比特的时间缩短 4 倍。自动测量和控制量子比特的新方法或许是量子计算迈向实用化的重要一步:近年来,量子点中单个电子的电子自旋,已被人们认为是量子计算机中最小信息单元(qubit,也称为量子位)的理想选择。

为了将单个电子固定在量子点上,我们需要在纳米结构上使用电压进行操作。图片来自瑞士巴塞尔大学。

施加电压控制

在由分层半导体材料制成的量子点中,单个电子被捕获在陷阱之中。研究人员可以通过向陷阱内的各种纳米结构施加电压来控制电子,从而可靠地确定并快速切换它们的自旋。这种方法可以让人们控制通过量子隧穿效应,从储层进入量子点的电子数量。在这里,即使是很小的电压变化也会造成明显的影响。

因此,对于每个量子点来说,我们都必须仔细地调整电压,从而保证最佳条件。当将多个量子点组合起来,以期实现更大的量子比特数量时,这种调整的过程就会变得异常耗费时间,因为半导体量子点各不相同,并且必须分别进行特征化操作。

机器学习实现自动化

目前,来自牛津大学、巴塞尔大学和兰卡斯特大学的科学家们已经开发出了一种算法,可以实现这个过程的自动化。与传统的数据采集方法相比,他们的机器学习方法将测量时间和测量次数都减少了大约 4 倍。

「通过这一工作,我们为实现多量子比特架构的计算机铺平了道路,」论文作者之一,瑞士巴塞尔大学物理系教授 Dominik Zumbühl 表示。

使用人工智能的方法测量和控制量子比特,和 AI 的其他应用并没有什么不同。首先,科学家们使用在不同电压下流经量子点的电流数据训练机器学习算法。与面部识别技术一样,算法会逐渐学习出为了获得最大信息量,哪些位置需要进行进一步测量。随后,系统执行这些测量建议,并重复这一过程,直到根据预定义的标准获得有效的表征,而量子点最终可以用作量子比特。

研究人员表示,该方法结合了信息论与概率深度生成模型,可以根据分散的局部测量结果生成全分辨率的重建结果。在实验中,对于两种不同的图配置,研究人员证明了该算法优于标准的网格扫描技术,可将所需的测量次数减少多达 4 倍,并将测量时间缩短 3.7 倍。

算法和量子点设备示意。

「这是第一次,有人使用机器学习算法应用在砷化镓量子点中,实现有效的测量,」论文作者之一,牛津大学的 Natalia Ares 博士表示。

「下一步我们实验室的任务是将这一算法应用于由更适合量子计算机开发的其他材料制成的半导体量子点上,」Dominik Zumbühl 补充道。


参考内容:

https://scitechdaily.com/machine-learning-to-automatically-measure-and-control-qubits/

https://www.nature.com/articles/s41534-019-0193-4

理论量子计算牛津大学
1
相关数据
深度生成模型技术

深度生成模型基本都是以某种方式寻找并表达(多变量)数据的概率分布。有基于无向图模型(马尔可夫模型)的联合概率分布模型,另外就是基于有向图模型(贝叶斯模型)的条件概率分布。前者的模型是构建隐含层(latent)和显示层(visible)的联合概率,然后去采样。基于有向图的则是寻找latent和visible之间的条件概率分布,也就是给定一个随机采样的隐含层,模型可以生成数据。 生成模型的训练是一个非监督过程,输入只需要无标签的数据。除了可以生成数据,还可以用于半监督的学习。比如,先利用大量无标签数据训练好模型,然后利用模型去提取数据特征(即从数据层到隐含层的编码过程),之后用数据特征结合标签去训练最终的网络模型。另一种方法是利用生成模型网络中的参数去初始化监督训练中的网络模型,当然,两个模型需要结构一致。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

推荐文章
暂无评论
暂无评论~