Neil撰写半夏 编辑

AI芯片:巨头的新战场,中国的“芯”希望

10月9日,华为两颗AI芯片问世;

9月26日,英伟达宣布推出全新的TensorRT 3人工智能推理软件;

9月19日,阿里巴巴在杭州云栖大会上宣布,成立“平头哥半导体有限公司”;

9月13日,苹果发布新款iPhone XS系列手机搭载A12仿生芯片;

8月31日,华为发布AI加持的麒麟980芯片;

最近几个月,“AI芯片”无疑成为科技界的一大热门话题,显卡大户英伟达、CPU大佬英特尔、搜索界一哥谷歌、“平头哥”阿里巴巴、“凌晨偷笑”的华为等科技公司都在专注于同一件事:AI芯片。

那么问题来了,AI芯片究竟是什么芯片?目前哪家公司做的最好?为什么每家科技巨头都在争先恐后的研究它?我国在AI芯片能否和国外巨头一战?AI锐见带你一探究竟。

芯片纵有三千,AI只取一瓢!

随着人工智能深度学习的春风吹遍世界各地,各类芯片的头衔都与AI密不可分。知名市场调研公司ReportLinker预计,到2023年,全球人工智能(AI)芯片市场规模将达到108亿美元,复合年均增长率达到53.6%。AI芯片很可能是芯片界的一次变革。

其实芯片的种类有千千万万,AI芯片只是其中的一部分,甚至有些专家认为目前不存在所谓的人工智能芯片。我们都知道芯片最重要的的工作就是处理数据,AI芯片也不例外,我们所熟知的CPU与GPU亦是如此。

人工智能是什么?简单来说,人工智能分为机器学习深度学习两部分,无论是机器学习还是深度学习都需要构建算法和模型,以实现对数据样本的反复运算和训练,降低对人工理解功能原理的要求。所以,AI芯片通常要处理规模非常庞大的数据。

芯片类型一览

那传统的CPU和GPU难道不能计算这些数据吗?当然可以,但问题也不少。CPU在处理AI算法时就比较缓慢,比如自动驾驶的车辆需要识别复杂的路况信息,如果慢了几秒就会发生严重的事故,时间就是生命。CPU就不太适合处理这些数据了。

GPU在处理数据时效率虽然提高很多,但黄教主的显卡动辄上万,而且功耗惊人。在几年前,谷歌的人工智能阿尔法狗(Alpha Go)下一盘围棋就动用了1000个CPU和200个GPU,每分钟的电费高达300美元,其网络规模还只有人脑的千分之一。假设一盘围棋的时间为两小时,这就需要花费36000美元。

这种方式虽然可行,但成本太高。也就是谷歌这种大佬用得起,换作其它家中小型企业自然是望而却步的。AI芯片还需广泛应用于手机中,比如面部识别和语音识别。如果像GPU的功耗情况对于手机来说是不现实的。

总结来说,AI芯片的作用就是就是专注于处理机器学习深度学习的海量数据,比起传统的CPU\GPU既能提高效率,又可以减少功耗。

两大应用场景,面向云端与终端

当今AI芯片主要应用于两大场景:面向大型服务器的云端和面向智能硬件的终端。

人工智能首先需要深度学习深度学习就意味着需要大量的数据和繁琐的运算,在云端AI芯片能够满足当前算法训练的要求。比如给一个系统成千上万种“狗”的图片,并告诉这个系统这种生物是“狗”,系统经过深度学习之后“知道”了什么是“狗”,之后这个系统就可以判断一张图片是不是“狗”了。

所以,云端AI芯片的特点就是性能强大,能够进行大量运算,并且能够灵活地支持图片、语音、视频等不同AI应用。

终端AI芯片则是面向消费者的智能硬件,AI芯片让数据处理等操作实现“本地化”,脱离了“联网”的限制。比如手机,将AI芯片整合在手机CPU中,高通、苹果、华为都实现了这种整合AI芯片的手机CPU。

终端AI芯片的特点是体积小、功耗小、性能无需特别强大,通常只有一种或两种AI功能。如今所说的“智能家居”就离不开终端芯片的功劳。像生活中常见的扫地机器人,智能音箱,手机里的语音助手等设备都配备了终端芯片。

云端英伟达一骑绝尘,终端市场群雄割据

云端AI芯片无论是从硬件还是软件,已经被各大巨头控制。2018年5月,市场研究顾问公司Compass Intelligence发布了关于AI芯片最新调研报告。因为目前AI芯片在终端应用较少,所以榜单头部的排名可以近似的认为就是云端AI芯片的目前市场格局。

从图中看出,排名靠前的无疑就是英伟达、英特尔、IBM与谷歌。排行榜中共有七家中国人工智能芯片公司入围榜单Top24。华为排名12,成中国大陆地区最强芯片厂商。其余六家中国公司分别为:联发科、Imagination、瑞芯微、芯原、寒武纪、地平线。

英伟达:云端芯片·大佬

英伟达目前占据了全球云端AI芯片一半以上的市场,这仅仅是保守数字。GPU非常适合深度学习,而英伟达正好以GPU称霸世界,研究人工智能的科学家就沿着GPU自然而然地找到了英伟达。

黄教主则立马抓住了这个机会,动用数千工程师、投入20亿美元,短时间内研发出第一台专门为深度学习而优化的Pascal GPU。所以,在深度学习大行其道的今天,英伟达变身成了最大赢家。

2018年9月26日,英伟达正式发布最新的TensorRT 3 神经网络推理加速器。目前使用英伟达的AI技术的公司有很多,其中包括国内的BAT、京东等公司,以及国外的亚马逊、谷歌、Facebook等公司。

英伟达旗下产品线更是不在少数:自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多。

英特尔:疯狂收购·不差钱

谈到芯片和CPU,怎能少了PC界的老大英特尔。尽管英特尔自身的CPU不适合AI芯片,但人家不差钱啊!

英特尔在AI芯片上可是下了血本。

为了加强在人工智能芯片领域的实力,英特尔以 167 亿美元收购 FPGA 生产商 Altera ,以 153 亿美元收购自动驾驶技术公司 Mobileye,以4亿美元收购深度学习初创企业Nervana Systems以及机器视觉公司 Movidius和为自动驾驶汽车芯片提供安全工具的公司Yogitech。

但遗憾的是,目前还没有成熟的产品面世。用英特尔自己的话说,其要建立一个人工智能全栈式的解决方案,从而充分释放AI的潜力。这可能是英特尔AI芯片迟迟没有落地的原因吧。

谷歌:围棋NO.1·阿尔法狗

谷歌在2016年宣布独立开发一种名为TPU的全新的处理系统。打败众多人类围棋大师的人工智能阿尔法狗采用的是谷歌自主研发的全定制化芯片(ASIC)TPU。

TPU是专门为机器学习应用而设计的专用芯片。TPU特别适合谷歌自家的TensorFlow系统。在2018谷歌开发者大会上,谷歌已经发布了TPU 3.0。谷歌旗下的Waymo自动驾驶公司采用的正是TPU。

2018年2月13日,谷歌正式宣布,向谷歌云客户开放张量处理器TPU beta版服务,每小时6.5美元。

对于选择在谷歌云平台上运行机器学习模型的客户来说,这算是个好消息,但谷歌这次开放的TPU数量有限且按时收费,每小时成本为6.50美元。

苹果:仿生加持·A12芯片

从去年的iPhone X使用的A11处理器开始,苹果公司在处理器的AI中大做文章。在今年刚刚发布的iPhone XS系列使用的A12芯片更是披上了“仿生”的神秘面纱。简单来说,苹果的“仿生”只是在其CPU中配备了新一代神经网络引擎。A12仿生处理器相当于模仿了人类大脑的神经网络。

当然,目前的仿生芯片还处于一个比较初级的阶段,多为概念而已,体验上并不会有太大的变化。

这些功能体现在:智能省电优化,Face ID 3D人脸识别,AR表情,相机一键换背景等都离不开仿生芯片的功劳。

根据最新消息,苹果公司正在支付3亿美元现金购买Dialog半导体公司的一部分。该交易预计将于2019年初完成,待监管部门批准。

寒武纪:中国·独角兽之一

寒武纪科技成立于2016年,其拥有终端AI芯片和云端AI芯片两条产品线。华为的麒麟970采用的正是寒武纪开发的NPU。

2018年5月发布的寒武纪MLU100智能芯片,适用于视觉、语音、自然语言处理等多种类型的云端人工智能应用场景。寒武纪目前已经完成B轮融资,整体估值为25亿美元。

华为:顺势而为·AII In AI

就在今年苹果发布会召开的同时,华为余承东深夜发微博:稳了。余总信心满满也许是因为华为自己的麒麟980芯片。早在去年,麒麟970就已经搭载了NPU。NPU也属于全定制化芯片(ASIC),因为定制,所以专业。

而今年的麒麟980更是搭载了双NPU,华为表示,麒麟980的全新双核NPU比麒麟970的NPU快2.2倍,每分钟可实现4500次推断。NPU的功能就是负责AI运算,在大幅提高手机AI性能的同时降低了AI任务功耗,体现在在语音助手、智能识物、省电等功能上,和苹果A12芯片功能类似。

10月10日,华为发布了AI发展战略与全栈全场景AI解决方案,并发布了两款AI芯片:Ascend 910和Ascend 310,一款面向云端,一款面向终端。

当然,华为并不会单独销售这两款AI芯片,而是以芯片为基础开发AI加速模组,AI加速卡,AI服务器,AI一体机,以及面向自动驾驶和智能驾驶进行销售。这次发布的两款芯片都会在2019年第二季度上市,究竟实力如何我们拭目以待。

这是AI芯片最好的时代,也是最坏的时代

根据Gartne报告分析称,AI芯片在2017年的市场规模为48亿美元,2020年预计达到146亿,其中云端应用可望达到105亿。目前AI芯片云端市场被英伟达牢牢占据,终端市场群雄并起。

当然,AI芯片全球起步时间几乎相差无几, 国内外新老AI芯片势力百花齐放,也必将会为芯片市场带来更多可能。

AI锐见
AI锐见

洞察AI行业趋势

产业AI芯片
1
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
寒武纪机构

寒武纪科技成立于2016年3月,是全球智能芯片领域的先行者,宗旨是打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片。公司创始人、首席执行官陈天石教授,在处理器架构和人工智能领域深耕十余年,是国内外学术界享有盛誉的杰出青年科学家,曾获国家自然科学基金委员会“优青”、CCF-Intel青年学者奖、中国计算机学会优秀博士论文奖等荣誉。团队骨干成员均毕业于国内顶尖高校,具有丰富的芯片设计开发经验和人工智能研究经验,从事相关领域研发的平均时间达七年以上。寒武纪科技是全球第一个成功流片并拥有成熟产品的智能芯片公司,拥有终端和服务器两条产品线。2016年推出的寒武纪1A处理器(Cambricon-1A)是世界首款商用深度学习专用处理器,面向智能手机、安防监控、可穿戴设备、无人机和智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越CPU和GPU,与特斯拉增强型自动辅助驾驶、IBM Watson等国内外新兴信息技术的杰出代表同时入选第三届世界互联网大会评选的十五项“世界互联网领先科技成果”。目前公司与智能产业的各大上下游企业建立了良好的合作关系。在人工智能大爆发的前夜,寒武纪科技的光荣使命是引领人类社会从信息时代迈向智能时代,做支撑智能时代的伟大芯片公司。

http://www.cambricon.com/
地平线机构

地平线作为嵌入式人工智能全球领导者,致力于提供高性能、低功耗、低成本、完整开放的嵌入式人工智能解决方案。面向智能驾驶、智能城市和智能商业等应用场景,为多种终端设备装上人工智能“大脑”,让它们具有从感知、交互、理解到决策的智能,让人们的生活更安全、更便捷、更美好。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

自动驾驶汽车技术

自动驾驶汽车,又称为无人驾驶汽车、电脑驾驶汽车或轮式移动机器人,是自动化载具的一种,具有传统汽车的运输能力。作为自动化载具,自动驾驶汽车不需要人为操作即能感测其环境及导航。

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

推荐文章
暂无评论
暂无评论~