Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

凯霞编译

「芯片大脑」——速度提高20倍,能耗降低200倍

生物学上脉冲神经网络(SNN)的性能在很大程度上取决于模型参数和神经动力学。
近日,阿卜杜拉国王科技大学(KAUST)的研究人员提出了一种提高生物SNN性能的参数优化方案和一个用于数字实现的并行FPGA(现场可编程门阵列)在线学习神经形态平台。与其他神经网络平台相比,该团队的「芯片大脑」速度提高了20倍以上,能耗降低了200倍。
该研究以题为「Toward the Optimal Design and FPGA Implementation of Spiking Neural Networks」的论文发表在《IEEE神经网络与学习系统汇刊》(IEEE Transactions on Neural Networks and Learning Systems)杂志上。
图片
人工智能技术发展迅速,在高级自动化、数据挖掘和解释、医疗保健和市场营销等领域出现了大量新的应用。尽管人工神经网络(ANN)在各种应用中都非常成功,但由于密集的矩阵乘法和内存访问,其神经网络固有地需要大量的计算能力。
研究小组的博士生郭文哲(Wenzhe Guo)说:「ANN是一种抽象的数学模型,与真实的神经系统几乎没有相似之处,并且需要强大的计算能力。」
低成本、低能、高速
SNN通过模拟和建模神经系统的结构,可以像人脑一样进行计算。这些神经系统以动作电位(或脉冲)的形式传输信息,这种事件驱动的行为在数学上被实现为「带泄漏整合发放模型(leaky integrate-and-fire (LIF) model)」,使得SNN很节能。另外,互连节点的结构提供了高度的并行化,进一步提高了处理能力和效率。SNN也可以作为神经形态芯片直接在计算硬件中实现。
图片SNN的结构(来源:论文)
SNN与生物神经系统的功能相似,广泛应用于图像分类、目标检测、导航和运动控制等领域。
可以将模拟大脑生物学的神经网络加载到微芯片上,以实现更快、更有效的人工智能。
「由于SNN模型非常复杂,我们面临的主要挑战是定制神经网络设置以获得最佳性能。」Guo说, 「然后,我们在考虑成本、速度和能耗之间的平衡的基础上,设计了最佳的硬件架构。」
「我们使用了标准的低成本FPGA(现场可编程门阵列)芯片,并实现了依赖于脉冲时间的可塑性模型,这是在我们的大脑中发现的一种生物学习规则。」Guo说。
KAUST的研究人员基于LIF模型构造SNN,研究了基于FPGA的SNN中用于模式分类的两种不同数值方法(欧拉方法(Euler)和三阶Runge-Kutta(RK3)方法)的性能,并全面比较了分类精度、资源利用、能耗和FPGA运行时间。
研究表明,基于用Euler方法和RK3方法求解LIF神经元方程,Euler方法占用的资源更少,耗能更少,延迟也更小。
此外,基于RK3方法的SNN在具有25个神经元内核的FPGA上实现。研究者通过比较使用Euler方法和RK3方法的实现之间的资源利用率、功率、运行时间和能耗。研究发现RK3方法使用更多的FF(触发器)和LUT(查找表)分别来存储中间变量、实现逻辑。因此,RK3方法会耗散更多的功率来运行网络。
RK3方法和Euler方法在FPGA上每个图像的实际训练运行时间分别为1.36 ms和2.59 ms。说明RK3方法在网络处理图像的速度要快得多。
总之,Euler方法适用于低成本的实现,为推理提供了一种节能的解决方案。RK3方法可以在实时应用中实现准确、快速、低能耗的信息处理,在实时在线训练中具有广阔的应用前景。
图片用Euler法和RK3法求解LIF神经元方程的结果。(来源:论文)
Guo表示:「我们提出的基于遗传算法的优化方法为优化超参数和提高网络性能提供了一种快速有效的方法。」
与其他神经网络平台相比,该团队的「芯片大脑」速度提高了20倍以上,能耗降低了200倍。
Guo说:「我们的最终目标是建立一个『紧凑』、快速、低能耗的类似于大脑的硬件计算系统。下一步是通过合作,改进设计,优化产品封装,使芯片小型化,并为各种工业应用提供定制化服务。」

论文链接:https://ieeexplore.ieee.org/document/9353400

参考内容:https://techxplore.com/news/2021-04-brain-on-a-chip.html

理论芯片
相关数据
参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

数据挖掘技术

数据挖掘(英语:data mining)是一个跨学科的计算机科学分支 它是用人工智能、机器学习、统计学和数据库的交叉方法在相對較大型的数据集中发现模式的计算过程。 数据挖掘过程的总体目标是从一个数据集中提取信息,并将其转换成可理解的结构,以进一步使用。

推荐文章
暂无评论
暂无评论~