参与李泽南

集成光电,机器编程:英特尔一次放出五大新技术

一年一度的 Intel Labs Day 活动 12 月 4 日在线举行,作为英特尔全年最为重要的新技术发布活动,这家公司一口气发布了有关集成光电、神经拟态计算、量子计算、保密计算、机器编程五个领域的技术新进展。

说到英特尔的产品,人们都不会陌生。在英特尔研究院里,研究人员不仅专注于探索新技术,也时刻以「在全球范围内部署」作为新技术的研发标准。

「英特尔的目标是让每个人都能获得百亿亿次级计算。英特尔研究院正在实现这一目标。」英特尔首席架构师 Raja Koduri 在活动中说道。

上周这家公司展示的五大研究进展,或许在不久的将来就能改变人们与数据互动的方式。
Screen Shot 2020-12-07 at 16.27.51.png首先是集成光电技术,有关数据传输人们更了解的是英特尔的雷电协议被开放成为了 USB-C 的新一代标准,不过只有应用光互联才能让速度再次大幅度提升。英特尔首席工程师、英特尔研究院 PHY 研究实验室主任 James Jaussi 表示,之所以现在需要迁移到光互连 I/O,主要有两个原因,一个是我们正在快速接近电气性能的物理极限,一个是 I/O 功耗墙,会导致无法计算。
为实现这一愿景,我们必须开发出一项颠覆性技术,将光学技术与硅技术集成起来,让光互连具备硅的高产量、低成本等属性。

早在 2016 年,英特尔就推出了一款全新的硅光子产品「100G PSM4」。这款产品结合了硅电子和光学技术,能够在独立的硅芯片上实现近乎光速的数据传输。能够提高数据中心数据传输效率,同时降低成本。

光互连技术涉及六大技术要素:光产生、光放大、光检测、光调制、CMOS 接口电路和封装集成。英特尔认为集成光电要具备五大「关键技术模块」,并且在近期取得了重大创新。

在光调制方面,英特尔开发了微型微射线调制器,它们体积缩小了 1000 倍,在服务器封装里可以放置几百个这样的器件;第二个是在光探测领域,推出全硅光电探测器,可以降低成本;第三个是在光放大领域,推出集成半导体光学放大器,降低总功耗;最后通过协同集成,将 CMOS 电路和硅光子技术整合起来。
Screen Shot 2020-12-07 at 10.47.56.png英特尔提出的「集成光电」愿景,将光互连 I/O 直接集成到服务器和封装中,对数据中心进行革新,实现了 1000 倍的速度提升,同时还能降低成本。英特尔在活动中表示,目前自己已为客户提供了超过 400 万个 100G 的硅光子产品。
虽然冯诺依曼结构计算机在今天无处不在,但人脑仍然是效率更高的计算系统。

自 2015 年起,英特尔研究人员就以现代神经科学理解作为灵感开发了一种新型计算机架构。它非常适合处理大脑可以轻松计算的各种智能工作负载。相比传统计算机架构,神经拟态架构完全模糊了内存和处理之间的界限。和大脑一样,它利用的是数据连接、数据编码和电路活动中所有形式的稀疏(sparsity)。处理就发生在信息到达时,二者同步进行。计算是数百万个简单处理单元之间动态交互的发展结果,就像大脑中的神经元一样。

我们目前对大脑结构及其计算能力的了解是:大脑的神经网络通过脉冲来传递信息,根据这些脉冲的时间来调节突触强度或突触连接的权重,并把这些变化存储在突触连接处。脑内神经网络及其环境中多个区域之间的协作和竞争性相互作用就产生了智能的行为。

神经拟态这种计算方式,能够更好地模拟人脑神经元的结构,不仅是多路的输入和强度,同时还有时间先后的延迟顺序。一个脑当中可以同时学习多种任务,包括语音任务、视觉任务、决策任务、操作控制等等,它是多功能的。硬件上也可以具备一边工作一边学习的能力,也就是片上的学习能力,这些都需要突破式的发展才能做到。

这种新型计算机架构有望将能效、实时数据处理速度、学习数据的效率等提升多个数量级。

在目前的实践中,英特尔提出的Loihi在一些机器人工作负载(如自适应机械臂、SLAM)上功耗比传统解决方案低最多 100 倍;在 Pohoiki Springs 上实施类似的搜索操作,相比 CPU 功耗低 45 倍,运行速度快 100 多倍;在约束满足和图形搜索领域,Loihi 速度比 CPU 快 100 倍,功耗降低 1000 多倍。
image.png2020 年 3 月,英特尔神经形态芯片的研究登上了 Nature 子刊的封面,很快英特尔又发布了神经拟态研究系统 Pohoiki Springs,具备高达 1 亿神经元的计算能力。2020 年 3 月,英特尔神经形态芯片的研究登上了 Nature 子刊的封面,很快英特尔又发布了神经拟态研究系统 Pohoiki Springs,具备高达 1 亿神经元的计算能力。

为了将神经拟态计算推向整个科技界,英特尔于 2019 年宣布成立英特尔神经拟态研究社区(INRC),目前已经有 100 多家不同类型的学术机构、政府实验室、企业进行合作,其中有 10 家来自全球 500 强企业,如埃森哲、空中客车、通用电气等。

在开放日中,英特尔还宣布联想、罗技、梅赛德斯-奔驰和机器视觉传感器公司 Prophesee 加入英特尔神经拟态研究社区。在 2021 年第一季度,英特尔还将发布下一代「Lava」软件开发框架的开源版本,服务更多软件开发人员。

量子计算是用量子比特相互纠缠实现性能的指数级提升,可以实现并行的大量计算。这也让量子计算可以解决很多经典计算机难以解决的问题,例如开发加速制药研发、设计新型材料等。最近谷歌实现量子优越性,以及潘建伟、陆朝阳等人登上 Science 的突破性研究让人们看到了实现算力突破的希望。

英特尔在去年推出了初代 Horse Ridge 低温量子控制芯片,使得量子计算向商业应用又迈进了一步。该 SoC 主要面向量子计算机内部电子设备与互联控制,以降低这部分电路的复杂性。在今日的 Intel Labs Day 活动期间,英特尔又向外界隆重宣布了新一代 Horse Ridge II 低温量子控制芯片。

Horse Ridge II 标志着英特尔在突破量子计算可扩展性方面取得又一个里程碑,向着量子实用性愿景迈出关键一步。可扩展性是量子计算的最大难点之一。在 2019 年推出的第一代 Horse Ridge 控制器的创新基础上,Horse Ridge II支持增强的功能和更高集成度,以实现对量子系统的有效控制。新功能包括操纵和读取量子位态的能力,以及多个量子位纠缠所需的多个栅极电位的控制能力。

在医疗、金融服务等许多领域,数据所有者可能需要遵循相关法规,保护数据隐私。这可能成为大规模整合数据的限制,阻挡我们从数据中获取更多有用的信息。为了解决这些问题,英特尔一直在推动保密计算的发展。

在零售、制造、医疗、金融服务等许多行业,最大的数据集往往都被限制在多方手里的数据孤岛中。这阻碍了使用机器学习工具从数据中获得洞察。通过联邦学习,我们可以将机器学习的计算过程进行拆分,使用端侧本地的数据训练本地的算法,然后将获取的信息发送至中央聚合站点,数据不共享,价值仍释放。

英特尔正在研究的完全同态加密是一种全新的加密系统,它允许应用在不暴露数据的情况下,直接对加密数据执行计算操作。该技术已逐渐成为委托计算中用于保护数据隐私的主要方法。不过同态密文的篇幅比纯数据大得多,导致开销增加,使这一技术尚未广泛应用。英特尔希望普及这项技术,我们正在研究新的软硬件方法,并与生态系统和标准机构开展合作。

英特尔还在研究让计算机自动编写软件。「机器编程」一词在英特尔研究院和麻省理工学院联合发布的《机器编程的三大支柱》论文中首次提出,旨在通过自动化工具提升开发效率。通过机器学习和其它自动化方法,设计可以自动编写软件的软件。

机器编程与机器学习有很大的不同,机器编程是教系统自己编程。它的核心原则是,人类向机器表达他(她)的意图,机器会自动创建完成该意图所需的所有软件。当前,全球只有 2700 万人会编程,不到人口的 1%,而对于掌握编程的需求却远高于此。

随着时间的推移,现在人们使用的编程语言越来越抽象(最流行的编程语言从 C++ 变成了 Python),对人类更加友好,但出现了运行效率底下的问题,如果把这个过程自动化了会变成什么样?
image.png英特尔机器编程的最终目标是让每个人都能创建软件。当这一目标完全实现时,每个人都可以通过自己最擅长的方式,如代码、自然语言或其他方式向机器表达自己的设计意图,从而创建软件。
软件开发中,枯燥的部分将被自动化,人们得以有更大的自由、灵活度和时间精力去创造。

在英特尔于 NeurIPS 2019 上发表的 30 余篇会议和专题研讨会论文中,《诊断软件性能回归的零正学习方法》提出了一种在高性能计算代码中,自动进行回归测试(由新代码签入引起的错误)的方法 AutoPerf。在运行代码时只利用名义训练数据和硬件性能计数器,我们证明了 AutoPerf 可以检测到并行编程中一些最复杂的性能 bug。

英特尔认为,机器编程会同时从两个方向为人们提供帮助,即够提高程序员和普通人的工作效率;同时机器编程系统生成的必须是高质量、快速、安全的代码。如果做不到这两点,就不能真正地帮助到开发人员。

「基于这两个核心价值观,我认为,机器编程关键的第一步是改进软件调试(Debug),」英特尔首席科学家、研究院机器编程研究主任及创始人 Justin Gottschlich 说道。「我们的机器编程团队开发了两个具体的系统,现在正在将它们集成到生产级系统中。」

2020 年对于英特尔来说是变革的一年,在出售存储业务,提出独立 GPU 芯片之外,诸多新技术已经展现在人们的眼前。或许在不久之后,这些尖端技术就会来到每个人的身边。

产业英特尔神经形态计算自动编程
相关数据
神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

联邦学习技术

如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,这部分研究被称为「联邦学习」(Federated Learning)。

量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

机器视觉技术

机器视觉(Machine Vision,MV)是一种为自动化检测、过程控制和机器人导航等应用提供基于图像的自动检测和分析的技术和方法,通常用于工业领域。

推荐文章
暂无评论
暂无评论~