Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

Jeffrey Burt作者nextplatform来源 Geek AI编译

摩尔定律失效后,芯片正转向一个由「异构」驱动的世界

在硬件层面上,远程的大型智能设备正变得越来越强大,为了满足未来的计算需求,变革是绝对有必要的。 

有时候,如果你在某个商业领域坚持上足够长的时间,市场就会自己来找你。

数十年来,Xilinx(赛灵思)一直是现场可编程门阵列(FPGA)的领导者,至今仍然占有 60% 的市场份额。英特尔在大约三年前以 167 亿美元的价格收购了 FPGA 领域的竞争对手 Altera,占据了大部分市场份额。

尽管 Xilinx 在过去几年中取得了稳定的增长,它在 2018 财年的收入比前一年增长了 8%,达到创纪录的 25.4 亿美元,但 FPGA 仍然刚刚开始在数据中心站稳自己作为计算机引擎的地位的脚跟。

英特尔、AMD 和 IBM 的 CPU 仍然是计算的主要驱动力,在 Nvidia 和 AMD 的 GPU 加速器的帮助下,一些前景光明的 Arm 阵营的公司希望希望能够在 Cavium 的领导下参与到这场变革中来。

于是,越来越多像 FPGA 以及定制化 ASIC——这些 CPU 之外的加速器被人们所使用,但是目前大部分的数据中心中占据主导地位的处理器仍然是 CPU。

尽管如此,Victor Peng 这位在 Xilinx 工作了 10 年的老员工(自从今年 1 月份起担任该公司 CEO),也看到了这种转变,想着有朝一日可编程硅芯片会成为大型数据中心用户、云平台建设者使用的高性能计算中心,以及常规企业的数据中心中的计算驱动力。

计算机领域正经历着重要的变革,这导致人们对异构计算的需求与日俱增,从而在不用改变任何底层架构的情况下能够适应手头的工作量。特别是目前越来越多从核心到网络边缘再接入云端的终端正在被连接起来,并通过传感器、摄像头和其他设备被赋予了智能,它们创造了大量的非结构化数据。

这些数据推动了对更强的计算能力和更大的存储空间、使用人工智能 (AI) 和机器学习等技术的需求,从而使人们对这些数据有更好的感知和决策的能力。

正如我们在「The Next Platform」中谈到的,FPGA 引起了人们对机器学习深度学习领域的兴趣,Xilinx 今年夏天则收购了以神经网络和 FPGA 为业务核心的初创公司 DeePhi。

Victor Peng 在硅谷举行的 Hot Chips 2018 上发表的主旨演讲中提到:「这种形式的智能化中的各个组成部分是完全相互联系在一起的。这种情况切切实实地发生了,而且尚处于早期起步阶段。」

尤其是从今天的角度来看,智能化意味着在某种程度上我们不仅仅拥有某种智能处理器(例如,系统级芯片,SOC),还要求所有的应用都拥有某种形式的人工智能,这通常会融入某种形式的机器学习技术。

「这种情况之所以让人如此兴奋,是因为它不仅已经对人们的日常生活产生了影响,而且由于其刚刚兴起,并且这个领域的变革正在以指数级的速度发生着,它对人们日常生活的影响会越来越深远。」

Peng 指出,有人预测在不久的将来每年的数据量将超过 10ZB,而且「从中获得某种价值通常意味着对数据进行处理,并以某种形式从原始数据中提取这些信息,这大大推动了大型数据中心中服务器数量的增长。数据中心的规模扩展地比我们以前所见到的要大得多,计算、存储空间和内存都在不断增加。

你可以看到,目前机器性能的增长也已经跟上了数据处理和总的存储空间那种指数级的增长速率。」

有趣的事,人们认为这一切都是通过各种各样的大型数据中心用户的广告收入以及从云平台构建者的基础设施服务获利的。

然而,在这种情况下,仍然存在一个很大的问题,那就是摩尔定律,Peng 将其称为「一个巨大的挑战」。

摩尔定律告诉我们晶体管的尺寸会缩小,并且我们可以将更多的晶体管集成在一个特定的区域中,从而具备更强的处理能力以及更低的成本。50 年来,摩尔定律在这个行业中一直都十分有效,但如今这条定律已经很难再维持下去了。

他说:「我们每个人都根深蒂固地认为,即使是对于科技产品来说,日常消费者也希望能够获得处理速度更快、更便宜的产品」。

「实际上,我们每年都希望电子产品都能遵循这样的物理定律:人们可以以同样的价格得到能力更强的更好的产品。因此,当我们说摩尔定律不再适用于我们今天的产业发展时,这种影响是十分深远的」。

多年来,芯片制造商已经使用了各种手段来跟上摩尔定律的步伐,包括增加更多的核心,驱动芯片内部的线程,以及利用各种加速器。

然而,Peng 认为更快更好的系统不仅需要通过处理器技术实现,还需要通过架构来实现。系统架构本身也面临着诸多挑战,特别是功率和密度,这也限制了性能。

「过去的 40 年中,计算主要集中在 CPU 和微处理器上。」Peng 说,

「在本世纪的头十年,这种状况渐渐走到了尽头。从 2010 年起,计算环境开始向异构系统发展,这时我们的计算机所使用的处理器可以被分为通用处理器以及那些你可以广泛称之为固有硬件加速器的处理器。这样的处理器可能是一个 CPU 或一个 MPU,当然,在机器学习领域 ASIC 也渐渐复兴起来。」

机器学习和其他现代计算工作,以及激增的连接起来的智能设备(数百亿),正推动新一轮的对硅技术的投资和对可配置和适应性强的硬件平台的需求。异构结构设计将是推动性能提升的关键。

通过机器学习和所有这些相连的设备和系统,「你不能把它们固定下来,因为你无法预测当你部署这些设备时全部的需求将会是什么。而且你不会想要通过改变物理设备来为这些基础设施赋予相应的能力」。

「这种观念不仅能够在软件层面上改变。在硬件层面上,远程的大型智能设备正变得越来越强大,而且为了满足未来的计算需求,这种变革是绝对有必要的。」

 异构计算架构

在 Hot Chips 上,Peng 和其他 Xilinx 的官员在演讲中谈到了该公司接下来的战略,包括即将推出的自适应计算加速平台 (ACAP) 和 7 纳米工艺的「Everest」系统级芯片。

Xilinx 在三月份第一次谈到 ACAP,虽然那时他们并没有就此平台深入介绍,但是 Peng 的确在这个项目上倾注了经历,在十月份 Xilinx 的开发者论坛上,他们很可能对这个平台进行深度展示。

Xilinx 表示,ACAP 将在机器学习推理方面为该公司现有的 16 纳米 FPGA 提供 20 倍的性能提升,并且在 5G 网络方面提供 4 北的性能提升。今年晚些时候,「Everest」将在台湾半导体制造公司的 7 纳米工艺平台上被生产出来。

 Everest 框架图

ACAP 是针对适应性和可编程性进行设计的。该平台的可编程引擎将从源头解决机器学习推理和 5G 网络工作的问题。

体系结构的核心是一系列 Tile 单元,每个 Tile 单元都会表示一个互联资源结构以及可以针对特定应用的可扩展本地内存的特征。Xilinx 将提供一系列针对广泛市场的 SKU(库存量单位)。

可编程逻辑器件包含 DSP、LUT、URAM 以及 BRAM。按照 Peng 的设想,这个架构将允许用户为该架构编写程序,以最好地满足应用需求。这使得他们能够为不同的工作部署相同的硅芯片。

Peng 说:「这将使交换内核和 DSA 的输入输出能够更快地进行,同时减少设计的限制」。

「这是一个多元化的市场。目前有许多关于数据中心和云计算的讨论,但是由于 AXAP 的灵活性和处理深度,它将服务于所有的市场。这个架构师可扩展的,所以他可以在汽车中、在云应用程序、通信间的设备上、基础设施上被应用。这种架构从一开始就是软件可编程的,但归根到底它还是可编程硬件。」

这也会让我们得到更高的吞吐量、更低的延迟和更低的功耗。当我们谈论现在的计算工作时,这些参数都和频率一样重要。

Peng 说:「这些天来,特别是由于我们着眼于机器学习领域,我们正热衷于提高 TOPS(评价指标)」。

「这让我想起了 1990 年代的 Megahertz Wars。然而,真正重要的并不是这种指标,重要的是应用程序的速度提升。我们通常以几百兆赫或者大约千兆赫的频率运行这些程序,而不是几千兆赫。

这很大程度上是因为,由于我们的架构需要有普适性,我们使用了很多分布时板载内存及其互联结构,甚至还有一些端口的配置都是可以自定义的。你不仅可以优化数据通路和数据流,还可以优化内存的层次结构和带宽,而板载内存的带宽是很大的」。

产业摩尔定律芯片
1
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

推荐文章
暂无评论
暂无评论~