李泽南 刘晓坤作者

华为首次推出量子计算云服务,HiQ量子云平台模拟效果业内领先

10 月 12 日,华为在全联接大会上正式发布了量子计算模拟器云服务平台 HiQ,包括基于华为云经典算力构建的量子计算模拟器及量子编程框架。

这也使得华为在继去年 10 月中国科学院-阿里巴巴量子计算实验室、中科大本源量子公司、清华大学 NMRCloud 团队在同一天发布量子计算云平台之后,成为国内又一家进军量子计算云服务的机构。这家通信巨头现正在积极参与全球量子计算生态的构建。

「在中国,量子计算的概念已经非常火热,」华为副总裁,云 BU 总裁郑叶来在发布会上表示,「华为正在探索量子计算的潜力,并已经在量子计算模拟方面取得了阶段性成果。」

首次亮相的量子计算模拟服务

这次发布的华为量子计算模拟器云服务,在量子电路模拟上实现了多项功能的重大创新,包括高性能分布式内存计算框架、最优化量子门调度及容和算法、量子门操作算法优化,以及在云服务器上的软硬件优化等。

HiQ 量子计算模拟云服务架构图

其中,HiQ 量子计算模拟器分三类。在全振幅量子计算模拟上,可以支持 42 个量子比特的模拟电路(如果用户模拟 38 以内的量子比特,则该服务是免费的);在单振幅量子计算模拟中,可以实现 81 个量子比特(40 层)甚至 169 个量子比特(20 层)的随机电路模拟计算。(注:全振幅模拟是指一次模拟计算就能算出量子态的所有振幅;单振幅模拟是指一次模拟计算只能计算出 2 的 N 次方振幅中的一个。)

量子计算模拟器的模拟结果主要取决分布式并行算法、调度算法、电路优化、内存计算软硬件综合优化等

目前国内企业及科研团队在量子计算模拟器方向最近有很多研究。郑叶来表示,HiQ 量子计算云服务平台基于华为云强大的计算资源,采用了一些突破性技术,克服了全振幅模拟器增加量子比特时,内存容量和网络宽带需求指数级上升的一些挑战。

同时,HiQ 量子计算云服务平台还集成了量子纠错线路模拟的功能,提供全球首个支持数万量级量子比特模拟的并行量子纠错线路模拟器,其性能是同类开源模拟器 CHP 的 5-15 倍。

纠错电路是量子纠错算法对应的电路,对未来的通用容错量子计算机非常关键。华为的纠错模拟电路基于 stabilizer circuit 模型,可应用于超导量子电路、离子阱量子计算机等量子计算硬件的纠错,为量子纠错机制研究提供有用工具。

随着随机电路中量子比特数的增加,HiQ(蓝色)和 CHP(红色)模拟纠错电路的模拟时间增长曲线。

华为 HiQ 解决方案架构

本次华为发布的量子编程框架,兼容已开源的量子软件框架 Project Q。同时在基于现有经典-量子编程 API 之上,新增两个图形用户编程界面——量子电路编排 GUI(Graphical User Interface)与经典-量子混合编排 BlockUI(Block User Interface),使经典-量子混合编程更加简单和直观。

量子电路编排 GUI 可以更直观地从物理层面上进行量子算法编程,对于有量子物理背景的研究人员更容易理解,例如业内领先的 IBM Q 量子计算云服务也提供 GUI 编程界面。因为在量子算法研究的初步阶段,大多数算法的表示形式都是这种图式。

但在这个层面上,量子编程和经典编程的思想已经呈现了根本的不同。且在经典计算机上,从电路到编程语言还需要经过微架构、指令集架构、编译器等层级;在完整的量子编程架构中,这些层级也会呈现相当不同的形式,这也为习惯经典编程思维的用户带来了理解上的困难。

华为 HiQ 量子计算编程框架架构

该编程框架架构的设计结合了量子力学的狄拉克符号表示和 Python 语言编程的思想,从代码中可以直观地理解算法的物理过程。并且只要指定后端,用户就能自主选择在云端的经典模拟器或以后的量子计算机上执行算法。

量子随机数生成算法的 HiQ 代码

目前,HiQ 量子计算模拟器云服务可进行 10 余种重要基础量子算法的运算,包括量子随机数生成、隐形传态、Grover 算法、Shor 算法、量子支持向量机、相位估计以及最大值查询等。该服务部分已在华为官网上线,可以申请免费使用。

HiQ 量子云服务平台算法库介绍

机器之心记者现场测试了量子相位估计算法

GUI 界面的量子线路编排演示,图中展示了贝尔态制备的线路,下方显示了测量结果

「我们在软件、硬件、系统工程方面进行了很多优化,现在我们的云平台在一些指标上已经达到了业界领先的水平。我们也研发出基于华为昆仑服务器的『昆仑量子计算模拟一体机』原型。」翁文康说道。

华为昆仑量子计算模拟一体机原型展示图

提前布局的研究规划及团队

虽然是第一次正式发布量子计算相关研究成果,华为在量子通信和量子计算领域的研究布局早已开始。

此前其量子通讯方向的研发团队大多在欧洲,包括就职在德国慕尼黑的量子通讯项目负责人、著名量子通信专家 Momtchil Peev。且近年不断与欧洲当地企业及大学进行联合研发及合作,近期则与西班牙电信、马德里理工大学共同完成了证明可通过软件定义网络(SDN)技术管理的光纤网络进行量子密钥分发(QKD)实现量子保密通信的实验,开创性地展示了量子保密通信技术与商业光纤网络技术融合应用的可能性。

在 2017 年《创新研究计划(HIRP)公开项目》中,华为提及其在超导量子计算、量子算法方向的研究规划

其中,华为正在进行量子计算的研究,具体研究范围包括量子计算基本原理、实验仪器、计算架构、不同路线的电路设计、电路 QED、容错计算、商用机会等。同时,华为也在进行量子算法方向的研究,例如新的量子算法、量子算法的可行性验证实验、量子机器学习等,希望挖掘量子算法在 ICT 业务上的应用潜力。

量子计算目前是华为中央研究院的基础研究项目。」华为中央研究院量子计算与软件算法研究架构师张学仓说道。

此前不久,华为正式宣布了翁文康教授加入华为中央研究院数据中心技术实验室,任量子计算软件与算法首席科学家。翁文康是量子计算领域的知名专家,来到华为后,他将主导量子算法、量子人工智能、量子模拟等领域的前沿研究和技术创新。

华为量子计算软件与算法首席科学家翁文康

翁文康教授是量子计算领域知名专家,他的研究方向包括量子算法、量子人工智能、量子模拟等,并取得了一系列重要的成果。他曾在《Nature Photonics》、《Nature Communications》、《Science Advances》、《PNAS》、《Physical Review Letters》、《npj Quantum Information》、《Science Bulletin》等国际著名刊物发表学术论文,并为《National Science Review》撰写关于量子霸权的展望。在哈佛大学博士后研究期间,翁文康开发的 VQE 量子化学模拟算法,已被谷歌和 IBM 等企业广泛采用。

翁文康的加入,更进一步表明华为加码量子计算技术研究的决心。

前瞻规划的华为量子人工智能大计

现今量子计算还仅仅走在探索计算稳定性、容错率和实现机制的初步阶段,华为展示的量子模拟技术已将技术的前沿提上了一个新的台阶。

在当日的大会上,清华大学交叉信息研究院院长、中科院院士姚期智教授表示,「人工智能领域中的一些算法,如果使用量子计算的方法进行解释,可以获得以往无法期待的突破性进展。量子人工智能可能造就终极学习机器。」翁文康也说道:「量子计算人工智能是天然的结合。现在我们已经可以用量子计算加速人工智能的应用,或者用机器学习来研究量子计算了:这已经变成了一个逐渐火热的研究方向——量子人工智能。」

如果说今天的 AI 是基于深度神经网络的算法、GPU/FPGA/TPU 等为主经典计算资源、大数据发展起来的,未来的 AI 可能是进一步被量子计算加持的某种超级智能或强人工智能。这也许正是谷歌、微软、IBM、阿里、腾讯、百度等各大已有强大云计算基础设施的公司在发展人工智能技术业务后,进一步布局量子科学研究,甚至成立量子人工智能研究室的理由,也是华为今天提供量子计算云服务的初衷吧。

产业量子计算华为
2
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

调度技术

调度在计算机中是分配工作所需资源的方法。资源可以指虚拟的计算资源,如线程、进程或数据流;也可以指硬件资源,如处理器、网络连接或扩展卡。 进行调度工作的程序叫做调度器。调度器通常的实现使得所有计算资源都处于忙碌状态,允许多位用户有效地同时共享系统资源,或达到指定的服务质量。 see planning for more details

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

支持向量机技术

在机器学习中,支持向量机是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

强人工智能技术

强人工智能或通用人工智能(Strong AI或者 Artificial General Intelligence)是具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。强人工智能是人工智能研究的主要目标之一,同时也是科幻小说和未来学家所讨论的主要议题。相对的,弱人工智能(applied AI,narrow AI,weak AI)只处理特定的问题。弱人工智能不需要具有人类完整的认知能力,甚至是完全不具有人类所拥有的感官认知能力,只要设计得看起来像有智慧就可以了。由于过去的智能程式多是弱人工智能,发现这个具有领域的局限性,人们一度觉得强人工智能是不可能的。而强人工智能也指通用人工智能(artificial general intelligence,AGI),或具备执行一般智慧行为的能力。强人工智能通常把人工智能和意识、感性、知识和自觉等人类的特征互相连结。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

量子机器学习技术

量子机器学习是量子物理学和机器学习交叉的一个新兴的交叉学科研究领域。人们可以区分四种不同的方式来结合这两个父类学科。量子机器学习算法可以利用量子计算的优势来改进经典的机器学习方法,例如通过在量子计算机上开发昂贵的经典算法的有效实现。 另一方面,可以应用经典的机器学习方法来分析量子系统。 一般来说,可以考虑学习装置和所研究的系统都是完全量子的情况。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~