四月作者

一款芯片训练推理全搞掂,Hinton为其背书,Graphcore完成2亿美元融资

「我认为我们需要走向另一种计算机,幸运的是我这里就有一个」,Hinton 说道,顺势从他的钱包里掏出了一枚 Graphcore IPU-Processor 芯片。

这是「深度学习教父」Geoff Hinton 上周接受《连线》(wired)采访,当被问及如何构建新的机器学习系统时的回答。

昨天消息(美国时间 12 月 18 日),英国 AI 芯片公司 Graphcore 宣布完成新一轮 2 亿美元融资,宝马旗下风投公司 iVentures 和微软作为战略投资方加入,公司估值达到 17 亿美元。截至目前,Graphcore 的融资总额超过 3 亿美元。

与一般的新锐公司不同,Graphcore 自创立之初就底气十足。他们自称,在人工智能学习的反应速度以及低能耗方面,其开发的产品要比目前市场上所有的图像处理解决方案好 10 到 100 倍。CEO NigelToon 曾在采访中提到,希望 Graphcore 能够上市,做到英国最领先的芯片制造商。

在本月的 NeurIPS(神经信息处理系统大会,前称 NIPS)大会展台上,机器之心就发现了一台由 Graphcore IPU 拼装的简易超算电脑「IPU-Pod」。

它包括 32 片 IPU-Machines,128 片 IPU,运算性能可达到 16PFLOPS(1petaFLOPS= 10³ teraFLOPS),即每秒可完成 16 千兆次浮点计算,功耗为 24Kw,可实现亿亿次(exascale, 10^16)的超级计算。

不容小觑的背景

Graphcore 成立于 2016 年,其总部位于英国布里斯托,两位联合创始人 CEO Nigel Toon、CTO Simons Knowles 此前还共同创立过市值 4.35 亿美金的 3G 蜂窝芯片公司 Icera,后卖给英伟达。所以在 Graphcore 的创立过程中,Toon 尤其强调其独立性,为避免多轮融资股份被过度稀释,还特意找来了知名投行高盛作为顾问。

左为Graphcore CTO Simons Knowles,右为CEO Nigel Toon

本轮融资为 Graphcore 的 D 轮融资,在最近一个月里敲定,新晋投资人和早期投资人各占一半金额。由其早期投资人 Skype 创始人 NiklasZennstrm's Atomico 以及欧洲大型投资公司 Sofina 领投。宝马 iVentures 和微软、美利安全球投资者(Merian Global Investors)均是该轮融资的新晋投资方。

此外,罗伯特博世风险投资公司、C4 风险投资公司、戴尔科技资本、Pitango(以色列最大风投)、三星和红杉资本等跟投。一年前,红杉资本参与了 Graphcore 的 C 轮融资,投资了 5000 万美元。

红杉资本在欧洲的投资项目屈指可数,他们认为,Graphcore 可能在快速发展的芯片市场与 Nvidia 和英特尔等行业巨头展开竞争。

英国历来位于芯片行业的中心地带,但其大型企业纷纷被外国企业收购,例如芯片设计商 ARM 去年被软银收购,而另一家英国芯片设计公司 ImaginationTechnologies 则被有中资背景的私募基金 Canyon Bridge 收购。

Graphcore 力争继承英国企业在芯片行业的「优良传统」。自创立以来,Graphcore 就吸收了不少战略投资方,其中 A 轮包括三星和博世,以及该轮融资中的宝马和微软。合理的推测是,博世和宝马将为 Graphcore 推进自动驾驶和车联网市场提供便利,而三星则是手机和语音助手领域的窗口。Graphcore 方面还表示,戴尔还将为其提供云计算芯片市场的 DOE 和渠道资源。

此外,Graphcore 还吸引了诸多人工智能领域的知名学术投资人为其背书,包括 DeepMind 的联合创始人 Demis Hassabis、剑桥大学的 Zoubin Ghahramani 和 Uber 的首席科学家、加州大学伯克利的 Pieter Abbeel 以及 OpenAI 的 Greg Brockman、Scott Grey 和 Ilya Sutskever。

Graphcore 频受资本和学界青睐,主要来自于其核心产品一款名为 IPU 的 AI 芯片,与常见的 IPU(Image Processing Unit,图像处理器)不同,这里的 IPU 是指 Intelligence Processing Unit,主要应用于无人驾驶汽车和云计算,专门为强大的机器习得系统设计。

人工智能标志着计算新时代的开始,这个时代需要完全不同类型的处理器和软件工具」,CEO Nigel Toon 认为目前市场上所使用的 GPU 并不适应未来的发展趋势。他表示,「GPU 是完全用来跑算法程序的,但是机器学习不一样,你要教会系统去使用数据,这就需要不同的计算方式。」

作为英伟达的挑战者,Toon 并不否认竞争,他表示,「现在我们正在面临很重要的转型期。其挑战难度比从电脑端到移动端的时代还要大。」

IPU杀手锏

「用于 Training 还是 Inference?」,面对百花齐放的 xPU 的 AI 芯片市场,这是最常见的一个问题。但 Graphcore 并没有直面回应,而是试图从另一个角度去解答,即这种分类本身就是不对的,是目前某些厂商提出的不合适的说法。

Toon 解释,如果我有一块可以连接在一起并使用多个处理器来进行速度训练的计算硬件,那么我可以使用其他处理器在不同的时间进行部署或推断;只要设计的处理器不必以特定的方式进行调整和控制来实现高性能,这便可能实现。

总的来说,Graphcore 认为先做 Training 然后做 Inference 的机制,未来一定会被 Learning 取代,即未来理想的人工智能应该能够在部署之后还能保持持续的学习和进化。

根据公开资料显示,Graphcore IPU 的一些关键 Feature 包括:

1. 同时支持 Training 和 Inference,对于这一点,Grophcore 有自己的解释。

2. 采用同构多核(many-core)架构,超过 1000 个独立的处理器。每个处理器核的处理能力和具体支持的操作还不清楚。支持 all-to-all 的核间通信,采用 Bulk Synchronous Parallel 的同步计算模型(上个世纪 80 年代提出的)。

3. 采用大量片上 memory,不直接连接 DRAM。这可能是他们的架构中最激进的一个选择。

宝马旗下风投公司 iVentures 负责人 Tobias Jahn 对于同时支持推理和训练的方案表示了认可,他谈道,「Graphcore IPU 的多功能性,即支持多种机器学习技术的高效表现适合各种应用,无论是智能语音助手还是自动驾驶车辆。因为 Graphcore IPU 的灵活性,能够在数据中心和车辆中使用相同的处理器,以减少用户的开发时间和工作量。」

此外,Graphcore IPU 的规模很大,通常包括数千到数百万个顶点,这也意味着巨大的并行性。同时 IPU 是稀疏的,大多数顶点只连接到其他一小部分顶点,即低精度。

对于定制开发型 IPU 处理器而言,要在同一台设备上进行训练抑或推理无疑是巨大挑战,在硬件架构设计之外,软件堆栈的开发更为核心。Graphcore 采用了自研的 Poplar 软件框架来解决其中可能遇到的划分、映射与通信问题。

Poplar 是一个驱动以 PCIe 为接口的 16 核 GraphcoreIPU 组件,其中插入了 Graphcore 所开发的许多库元素之一(类似于英伟达为其 GPU 提供的 cuDNN 元素),并插入诸如卷积或不同的基元来取代 TensorFlow 中编写的高级描述。该软件能够对处理元件和内部通信资源进行映射和划分,以完成处理图形任务并创建可以馈送至处理器的程序。

在《连线》的采访中,Geoff Hinton 谈到了对于 Graphcore 这种新架构的看法: 

几乎我们运行神经网络模型的所有计算机系统,甚至包括 Google 的特殊硬件,都使用 RAM 存储。从 RAM 中获取神经网络权重需要耗费大量的计算资源,所以处理器可以帮忙解决。一旦每个系统都确保获得了权重,处理器就会不断计算。这是一项巨大的成本,也就是说你根本无法改变你为每个训练样本耗费的资源。

在 Graphcore 的芯片上,权重存储在处理器中的高速缓存中,而不是存储在 RAM 中,也不需要移动,因此,事情就变得比较简单了。可能我们会得到一个系统,比如一万亿个权重。这更像是人脑的规模。

今年,Graphcore 成长迅速,团队规模扩大了两倍。自一年前上次融资以来,其员工人数从大约 75 人增加到大约 200 人,并在 2018 年在伦敦、帕洛阿尔托和北京和台湾新竹开设了新办公室。

目前,Graphcore 已经完成第一批订单的产品交付,并获得了第一笔创造了收入。Graphcore 方面表示,为了满足客户对其智能处理器单元(IPU)处理器卡的需求,公司正在加大订单生产中。

值得一提的是,Graphcore 的芯片量产也经历了一年左右的爬坡期。2016 年 11 月接受第一财经采访时,Toon 曾表示 IPU 处理器将于 2017 年投放市场。不过现在看来,Graphcore 首批产品的交付在 2018 年完成。

产业AI芯片融资Graphcore芯片
相关数据
OpenAI 机构

OpenAI是一家非营利性人工智能研究公司,旨在以惠及全人类的方式促进和发展友好的人工智能。OpenAI成立于2015年底,总部位于旧金山,旨在通过向公众开放其专利和研究与其他机构和研究人员“自由合作”。创始人的部分动机是出于对通用人工智能风险的担忧。

https://www.openai.com/
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

微软机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

推荐文章
暂无评论
暂无评论~