「财富」编译自

​人工智能正在推动“硅”复兴

半导体是数字时代的基础技术。它是硅谷名字的来源。它是过去半个世纪改变了社会各个方面的计算机革命的核心。
 
自从英特尔在1971年推出世界上第一个微处理器以来,计算能力的提高步伐令人叹为观止,且永不停息。根据摩尔定律,当今的计算机芯片比50年前的功能强大了数百万倍。
 
然而,尽管数十年来处理能力飞速增长,但直到最近,计算机芯片的基本体系结构仍基本上保持静态。在大多数情况下,芯片的创新需要进一步使晶体管小型化,以便将更多晶体管压缩到集成电路中。几十年来,英特尔和AMD等公司通过可靠地提高CPU性能而蓬勃发展,这一过程被Clayton Christensen称为“持续创新”。
 
今天,这种情况正在以戏剧性的方式改变。AI迎来了半导体创新的新黄金时代。数十年来,机器学习的独特需求和无限的机会第一次激发了企业家重新思考和重新思考芯片架构的最基本原则。
 
他们的目标是设计一种专为AI设计的新型芯片,它将为下一代计算提供动力。它是当今所有硬件中最大的市场机会之一。

新的计算范式

在计算的大部分历史中,主要的芯片体系结构一直是CPU或中央处理器。如今,CPU无处不在:它们为笔记本电脑,移动设备和大多数数据中心供电。
 
1945年,传奇的John von Neumann 设计了 CPU的基本体系结构。值得注意的是,此后其设计基本上保持不变:今天生产的大多数计算机仍是冯·诺依曼机器。
 
CPU在用例中的优势是其灵活性的结果:CPU是通用计算机,能够有效执行软件所需的任何计算。但是,尽管CPU的主要优势是多功能性,但是当今领先的AI技术需要非常特殊且密集的一组计算。
 
深度学习需要迭代执行数百万或数十亿个相对简单的乘法和加法步骤,简单那来说就是线性代数深度学习的根本是参数微调,矩阵相乘。
 
这种重复的,计算量大的工作流程对硬件体系结构具有一些重要意义。并行化(处理器能够同时而不是一个接一个地执行许多计算的能力)变得至关重要。与此相关的是,由于深度学习涉及大量数据的连续转换,因此将芯片的内存和计算核心尽可能靠近地放置,可以通过减少数据移动来获得巨大的速度和效率。
 
CPU 不足以支持机器学习的独特需求。CPU按顺序而不是并行地处理计算。它们的计算核心和内存通常位于单独的模块上,并通过带宽受限的通信系统(总线)连接。这在数据移动中产生了瓶颈,称为“冯·诺依曼瓶颈”。这就导致在CPU上训练神经网络效率极低。
 
鉴于机器学习应用在整个社会中正变得越来越普遍,传统芯片无法处理现代AI算法这个问题变得越来越严峻。正如AI行业伟大的Yann LeCun最近说的那样:“如果您预估未来的五,十年,您会发现计算机大部分时间都花在做深度学习之类的事情。”
 
至此,推动AI繁荣的芯片是GPU(图形处理单元)。GPU架构是Nvidia在1990年代后期为游戏应用发明的。为了以高帧速率渲染计算机游戏的详细图形,GPU专门用于连续处理大量数据。与CPU不同,GPU可以并行完成数千个计算。
 
在2010年代初,AI社区开始意识到 Nvidia的游戏芯片实际上非常适合处理机器学习算法所需的工作负载类型。这就让GPU找到了巨大的新市场。Nvidia抓住机遇,将自己定位为AI硬件市场领先的提供商。这就让公司收获了惊人的收益:从2013年到2018年,英伟达的市值跃升了 20倍。
 
然而,正如Gartner分析师Mark Hung所说,“每个人都同意GPU并非针对AI工作负载进行了优化。” GPU已被AI社区采用,但它并非为AI而生。
 
近年来,一大批企业家和技术人员开始重新构想计算机芯片,从头开始对其进行优化,以释放AI的无限潜力。用Alan Kay令人难忘的话来说:“真正认真对待软件的人们应该自己制造硬件。”
 
在过去的24个月中,出现了五只AI芯片独角兽。令人瞠目结舌的估值也吸引了更多新贵。传统CPU的领导者为了避免被抛弃,也参与其中。仅英特尔一家就完成了这一类别的两项重大收购:Nervana Systems(2016年4月以4.08亿美元收购)和Habana Labs(2019年12月以20亿美元收购)。在未来几年中,随着这场竞赛的进行,将有数千亿美元的企业价值被争夺。

下一个英特尔

巨大的市场机会和前景技术的挑战相结合,激发他们创造出惊人的创意——有时是惊人的、设计理想的AI芯片的方法。
 
新一代AI芯片初创企业中最引人注目的就是Cerebras Systems。简单地说,Cerebras的大胆方法是制造有史以来最大的芯片。最近该公司的价值为$ 1.7B,该公司已从包括Benchmark和Sequoia在内的顶级投资者筹集了$ 200M。
 
Cerebras芯片的规格令人难以置信。它比典型的微处理器大60倍左右。它是历史上第一个容纳超过1万亿个晶体管(准确地说是1.2万亿个)的芯片。它的片上内存为18 GB,这是有史以来最多的。
 
将所有计算能力打包到单个硅基板上可带来诱人的好处:数据传输效率大大提高,内存与处理并置,大规模并行化。但是,如果想轻描淡写工程上的挑战,这是荒谬的。因为几十年来,制造晶圆级芯片一直是半导体行业梦寐以求的梦想,但从未实现。
 
Cerebras首席执行官Andrew Feldman说:“每个规则,每个工具和每个制造设备都是为正常尺寸的“巧克力曲奇”设计的,我们提供了整个“曲奇纸”大小的产品。” “方法的每一步,我们都必须发明。”
 
Cerebras的AI芯片已经投入商业使用:就在上周,Argonne National Laboratory宣布将使用Cerebras的芯片来帮助对抗冠状病毒。
 
另一家采用全新的芯片设计新方法的公司是基于湾区的Groq。与Cerebras相比,Groq的芯片专注于推理,而不是模型训练。创始团队拥有世界一流的领域专业知识:Groq的团队包括Google TPU项目的十个原始成员中的八个,这是迄今为止最成功的AI芯片工作之一。
 
Groq颠覆了业界的传统常识,正在构建批量batch size为1的芯片,这意味着它可以一次处理一个数据样本。据该公司称,这种架构几乎可以实现瞬时推断(对于诸如自动驾驶汽车等对时间敏感的应用程序至关重要),而无需牺牲性能。Groq的芯片很大程度上是软件定义的,从而使其具有独特的灵活性和永不过时的特性。
 
该公司最近宣布其芯片达到每秒1万亿次运算的速度。如果为真,这将使其成为历史上最快的单die芯片。
 
也许没有一家公司比Lightmatter具有更出色的技术愿景。它是由光子学专家创立,总部位于波士顿。Lightmatter寻求构建一种AI微处理器,该微处理器不是由电信号而是由光束驱动的。该公司已从GV,Spark Capital和Matrix Partners筹集了3,300万美元,以实现这一愿景。据该公司称,光的独特性能将使其芯片性能比现有解决方案高十倍。
 
此类别中还有许多其他玩家值得关注。两家中国公司Horizon Robotics和Cambricon Technologies各自以更高的估值筹集了比其他任何竞争对手都更多的资金。帕洛阿尔托的SambaNova Systems 资金雄厚,技术精湛。尽管有关SambaNova计划的细节仍然很少,但其技术似乎特别适合于自然语言处理。其他值得注意的初创公司包括Graphcore,Blaize,Mythic和Kneron。
 
几家科技巨头已经开始自己的内部努力来开发专用AI芯片。这些程序中最成熟的是上面提到的Google的Tensor处理单元(TPU)。像往常一样,在技术曲线之前,谷歌于2015年开始研发TPU。最近,亚马逊宣布其Inferentia AI芯片在2019年12月大张旗鼓地发布。特斯拉,Facebook和阿里巴巴以及其他技术巨头都在参与其中。内部AI芯片程序。

结论

争相开发将为即将到来的AI时代提供动力的硬件的竞赛正在进行中。自硅谷成立以来,如今的半导体行业正在发生比以往任何时候都更多的创新。不可估量的数十亿美元正在发挥作用。
 
下一代芯片将在未来几年中塑造人工智能领域的轮廓和轨迹。用Yann LeCun 的话来说:“硬件功能...激励并限制AI研究人员将想象并允许自己追求的想法类型。我们可以使用的工具比我们愿意承认的更能塑造我们的思想。”
半导体行业观察
半导体行业观察

最有深度的半导体新媒体,实时、专业、原创、深度,30万半导体精英关注!专注观察全球半导体最新资讯、技术前沿、发展趋势。

产业人工智能AI芯片半导体机器学习英特尔
相关数据
Amazon机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
冯·诺依曼人物

约翰·冯·诺伊曼(德语:John von Neumann,1903年12月28日-1957年2月8日),原名诺依曼·亚诺什·拉约什(匈牙利语:Neumann János Lajos),出生于匈牙利的美国籍犹太人数学家,现代电子计算机与博弈论的重要创始人,在泛函分析、遍历理论、几何学、拓扑学和数值分析等众多数学领域及计算机学、量子力学和经济学中都有重大贡献。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

线性代数技术

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

阿里巴巴机构

阿里巴巴网络技术有限公司(简称:阿里巴巴集团)是以曾担任英语教师的马云为首的18人于1999年在浙江杭州创立的公司。 阿里巴巴集团经营多项业务,另外也从关联公司的业务和服务中取得经营商业生态系统上的支援。业务和关联公司的业务包括:淘宝网、天猫、聚划算、全球速卖通、阿里巴巴国际交易市场、1688、阿里妈妈、阿里云、蚂蚁金服、菜鸟网络等。 2014年9月19日,阿里巴巴集团在纽约证券交易所正式挂牌上市,股票代码“BABA”,创始人和董事局主席为马云。 2018年7月19日,全球同步《财富》世界500强排行榜发布,阿里巴巴集团排名300位。2018年12月,阿里巴巴入围2018世界品牌500强。

https://www.alibabagroup.com/
相关技术
Graphcore机构

Graphcore 成立于 2016 年,该公司正在开发一种新型处理器——IPU(intelligent processing unit /智能处理器),可以用来帮助加速机器智能产品和服务的开发。除此之外,该公司还开发了一套可以帮助用户无缝使用 TensorFlow 和 MXNet 等机器学习框架的接口,并为此提供了一个包含工具、驱动和应用库的开源软件框架 Poplar。 其总部位于英国布里斯托,两位联合创始人 CEO Nigel Toon、CTO Simons Knowles 此前还共同创立过市值 4.35 亿美金的 3G 蜂窝芯片公司 Icera,后卖给英伟达。所以在 Graphcore 的创立过程中,Toon 尤其强调其独立性,为避免多轮融资股份被过度稀释,还特意找来了知名投行高盛作为顾问。 与一般的新锐公司不同,Graphcore 自创立之初就底气十足。他们自称,在人工智能学习的反应速度以及低能耗方面,其开发的产品要比目前市场上所有的图像处理解决方案好 10 到 100 倍。CEO NigelToon 曾在采访中提到,希望 Graphcore 能够上市,做到英国最领先的芯片制造商。

相关技术
Groq机构

Groq 成立于 2016 年底,2017 年 4 月初次进入公众视野:宣布获得 1030 万美元融资。作为芯片领域的创业公司,Groq 一经出现就获得了极大的关注。公司创始成员为谷歌TPU设计成员之一。在接受CNBC的采访时,有关人士曾透露,该公司拥有TPU原始团队的大部分成员。在沉寂了几个月后,Groq 还吸引到了赛灵思全球销售执行副总裁 Krishna Rangasayee 的加盟,担任 COO。

groq.com/
相关技术
本体技术

在计算机科学和信息科学中,本体包括表示、正式命名和定义概念,数据,实体之间的类别,属性和关系,并在一个,多个或所有域实例中。

合合信息机构
推荐文章
暂无评论
暂无评论~