李泽南报道

效率可达CPU一万倍、内含800万神经元:英特尔发布神经形态芯片超算

人类大脑由 860 亿个互相连接的神经元组成,英特尔最近推出的类脑芯片系统 Pohoiki Beach 向「模拟大脑」这一目标前进了一大步,这是一个拥有 800 万人工神经元的计算机系统。据英特尔介绍,其组成芯片在 AI 任务中的速度是传统 CPU 的一千倍,能耗效率是一万倍。

英特尔还表示,类脑芯片越扩展效率越高,这是传统架构无法企及的。

神经形态学工程,也称神经形态计算,通常是指使用电路系统来模拟生物的神经形态学结构,或许是下一代计算机的发展方向。此前,来自 MIT、普渡大学、斯坦福、IBM、惠普等大学和公司的先驱者们都曾提出自己的全栈系统,但没有一家能像今天的英特尔这样如此接近神经形态学研究的终极目标——后者推出了一台超越前人千倍算力的超级计算机。

它就是刚刚在底特律美国国防部高级研究计划局(DARPA)2019 电子复兴峰会上出现的「Pohoiki Beach」系统,这是一款能够模拟 800 万神经元的 64 芯片计算机。英特尔实验室总监 Rich Uhlig 表示,Pohoiki Beach 已经免费向 60 个研究伙伴提供。这些机构正在使用新类型的芯片挑战最尖端领域的研究,其中包括可扩展 AI 算法,如冗余编码和路径规划

「我们对 Loihi 扩展后构建更强大神经形态系统的结果印象深刻。现在 Pohoiki Beach 已经提供给超过 60 个合作伙伴使用,他们将使用这种专用系统解决复杂、计算密集型问题。」Uhlig 表示。

Pohoiki Beach 包含 64 个 128 核心,14 纳米制程的 Loihi 神经形态芯片,这些芯片首次出现在世人面前是在 2017 年 10 月的 Neuro Inspired Computational Elements(NICE)研讨会上。它们具有 60 毫米裸片尺寸,每块包含 20 亿个晶体管、13 万个人工神经元和 1.3 亿个突触,此外还附有三个管理 Lakemont 核心用于任务编排。特别的是,Loihi 拥有可编程微码学习引擎,可在片上训练异步脉冲神经网络(SNN)——这是一种将时间结合进模型操作的特殊 AI 模型,可以让模型的不同组件不会同时被输入处理。SNN 被认为可以高效实现自适应修改、基于事件驱动和细粒度平行计算。

Pohoiki Beach 由 64 个较小的 Loihi 芯片组成,可模拟约 830 万个神经元这个数字和一些小型啮齿动物的大脑差不多。

在硬件之上,英特尔还提供了 Loihi 开发工具链:包括 Loihi Python API、编译器和一组用于在 Loihi 上构建和执行 SNN 的执行库。这些工具提供了自定义构建神经、突触计算图的方法,可调整诸如衰减时间、突触权重、脉冲阈值等变量,也可通过自定义学习规则注入外部脉冲来模拟计算图。

英特尔称,与传统处理器相比,Loihi 处理信息的速度要快上 1000 倍,而效率则要高上 1 万倍。在处理某些类型的优化问题上,神经形态处理器的速度和能效要比普通 CPU 强三个数量级以上。此外,英特尔还表示 Loihi 在扩展 50 倍时,在保证算力的情形下仅需增加 30% 的能耗——而常规架构的芯片需要 50 倍能耗。在进行同步定位和映射等操作时,新的芯片比常规 CPU 节省 100 倍能耗。

与人脑中的神经元类似,Loihi 拥有数字轴突用于向临近神经元发送电信号,也有树突用于接收信号,在两者之间还有用于连接的突触。英特尔表示,基于这种芯片的系统已经被用于模拟皮肤的触觉感应、控制假腿和玩桌上足球等任务。

因为效率颇高,Pohoiki Beach 和 Loihi 有望成为人工智能算法发展的新动力。英特尔称,新形态的芯片可以在图像识别、自动驾驶和自动化机器人等方面带来巨大技术提升。

「使用 Loihi,我们可以在运行实时深度学习基准测试时比 GPU 节省 109 倍的能耗,而与专用的物联网推理硬件相比,神经形态芯片也节约了 5 倍能耗,」Applied Brain Research 联合首席执行官、滑铁卢大学教授 Chris Eliasmith 表示,他们的团队正在使用 Loihi 进行研究。

英特尔表示,今年晚些时候,它将推出一个更大的 Loihi 系统——Pohoki Springs,该系统将拥有超过 1 亿神经元、1 万亿个突触,预计包含 768 颗芯片、1.5 万亿个晶体管。下一代神经形态系统将提供「前所未有的」性能和效率。

此外,Santa Clara 公司将继续通过英特尔神经形态研究社区(Intel Neuromorphic Research Community)为用户提供访问其 Loihi 云系统和 Kapoho Bay(基于 Loihi 的 USB 形状因子系统)的权限。

参考内容:

https://venturebeat.com/2019/07/15/intels-pohoiki-beach-is-a-neuromorphic-computer-capable-of-simulating-8-million-neurons/

https://www.tomshardware.com/news/intel-neuromorphic-loihi-ai-nuerons,39903.html

https://www.pcmag.com/news/369532/intels-latest-chip-mimics-the-way-your-brain-works

产业AI 基础设施智能芯片芯片超算英特尔
2
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

路径规划技术

路径规划是运动规划的主要研究内容之一。运动规划由路径规划和轨迹规划组成,连接起点位置和终点位置的序列点或曲线被称为路径,构成路径的策略则被称为路径规划。路径规划在很多领域都具有广泛的应用,如机器人的自主无碰行动;无人机的避障突防飞行等。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

神经形态计算技术

神经形态工程也称为神经形态计算,是Carver Mead在1980年代后期开发的一个概念,描述了使用包含电子模拟电路来模拟神经系统中存在的神经生物学结构的超大规模集成(VLSI)系统。 近来,神经形态(Neuromorphic)一词已被用于描述模拟、数字、混合模式模拟/数字VLSI以及实现神经系统模型(用于感知,运动控制或多感官集成)的软件系统。

推荐文章
暂无评论
暂无评论~