Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

李泽南作者

性能10倍于GPU:英特尔推出全新Nervana AI处理器

当地时间 1 月 7 日,英特尔在 CES 2019 展会上发布了 Nervana 系列神经网络处理器的最新型号 NNP-I,这种芯片适用于企业级高负载推理任务的加速,计划于今年投入生产。英特尔在发布中透露 Facebook 为其 NNP-I 智能芯片的开发合作伙伴。此外,英特尔还计划在今年下半年推出名为「Spring Crest」的神经网络训练处理器。

这是一个令人意想不到的发布,有关 Nervana 最近的消息还要追溯到 2017 年。看来英特尔已经准备好展示自己在人工智能芯片上的野心了。和之前消息透露的一样,英特尔最新的 Nervana 芯片是和 Facebook 合作开发的。

「Facebook 很高兴能与英特尔合作,开发新一代高能效、专用 AI 推理芯片,这将推动推理工作负载的加速。」Facebook 在产品发布的声明中表示。

英特尔数据中心事业群执行副总裁 Navin Shenoy 表示,Nervana 芯片将会在今年投入生产。与此同时,英特尔还会推出另一款用于训练的神经网络处理器,代号「Spring Crest」,也将在今年晚些时候上市。

目前预测英特尔的 AI 芯片能否抢占英伟达把持的市场还为时过早,不过 Nervana 芯片证明了英特尔进入价值 2000 亿美元 AI 市场的决心。去年 8 月,英特尔收购了人工智能模型套件初创公司 Vertex.ai,而在此之前,英特尔还收购了 Altera,将 FPGA 芯片纳入自己的产品线。

2016 年,英特尔花费约 4 亿美元收购了人工智能芯片初创公司 Nervana,并将其收编为自己的人工智能部门。而今天,英特尔推出的 Nervana 神经网络处理器据称可以在训练任务上达到其竞争对手 GPU 的十倍速度。

「这是五十年来公司面临的最大机会,」Navin Shenoy 去年曾在以数据为中心创新峰会(Intel DCISummit)上表示,「我们现在已经有 20% 的市场份额了……我们的策略是引领数据中心技术的新时代。」

尽管在 CES 展会上,英特尔发布了 Nervana 芯片,但目前还无法得知其技术细节和具体性能。

英特尔的发布会上,这家公司还介绍了适用于移动 PC 平台的首款 10nm 处理器「Ice Lake」,其将与英特尔全新推出的 Sunny Cove 进行深度整合,并为 AI 计算进行优化。这款处理器也会附带英特尔第十一代图形计算处理器,在今年晚些时候以 OEM 的形式出现在市场中。

英特尔最近还展示了其 Foveros 3D 封装技术,可将处理器中的不同 IP 立体堆叠在很小的面积上,以实现更加轻薄的外形设计。在 CES 2019 上,英特尔宣布基于这种技术的「3D 处理器」将于 2019 年投入生产。


参考内容:

https://venturebeat.com/2019/01/07/intel-announces-nervana-a-neural-network-chip-for-inference-based-workloads/

https://newsroom.intel.com/news/2019-ces-intel-showcases-new-technology-next-era-computing/#gs.rc3tTYyo

产业英特尔芯片FacebookNervana
1
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

http://www.intel.cn/
相关技术
人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

堆叠技术

堆叠泛化是一种用于最小化一个或多个泛化器的泛化误差率的方法。它通过推导泛化器相对于所提供的学习集的偏差来发挥其作用。这个推导的过程包括:在第二层中将第一层的原始泛化器对部分学习集的猜测进行泛化,以及尝试对学习集的剩余部分进行猜测,并且输出正确的结果。当与多个泛化器一起使用时,堆叠泛化可以被看作是一个交叉验证的复杂版本,利用比交叉验证更为复杂的策略来组合各个泛化器。当与单个泛化器一起使用时,堆叠泛化是一种用于估计(然后纠正)泛化器的错误的方法,该泛化器已经在特定学习集上进行了训练并被询问了特定问题。

推荐文章
暂无评论
暂无评论~