机器之心编辑部编译

颠覆传统计算架构:光神经网络硬件登上Nature

在过去的几十年里,电子计算发展迅猛,但其能源成本居高不下,因此,研究人员一直在探索其他可行的计算方法。光学计算就是其中一条颇有前景的研究方向。近日,一篇 Nature 论文展示了光学计算的最新成果,德国的研究人员提出了一种在毫米级光子芯片上实现的全光学神经网络,该网络内部没有光到电的转换,因此能源利用效率更高。这种光神经突触网络有望获得光学系统固有的高速和高带宽,并可以直接处理光通信和视觉数据。

光纤以光的形式传输数据,是现代远程通信网络的支柱。但在分析这种数据时,我们需要把光转换为电子,然后用电子方法进行处理。光学曾被认为是一种潜在计算技术的基础,但由于电子计算发展迅速,光学计算在这条赛道上跑得很吃力。

然而,近几年来,人们越来越关注计算的能源成本。因此,光学计算再次受到关注,因为它不仅可以降低能源需求,还可作为加速人工智能算法(如深度神经网络)的专用硬件。德国明斯特大学物理研究所的 Feldmann 等人在《Nature》上发表了一篇论文——「All-optical spiking neurosynaptic networks with self-learning capabilities」,阐述了这种网络的全光学实现取得的可喜进展。

深度神经网络包含很多层人工神经元和人工突触,它们是神经元之间的连接。这些连接的强度被称为权重,它们可以是正的,表示神经元被激活;也可以是负的,表示神经元抑制。深度神经网络通过改变其突触权重来学习执行图像识别等任务,从而最小化实际输出与预期输出之间的差距。

CPU 和其他数字硬件加速器通常用于深度神经网络计算。深度神经网络可以使用一个已知的数据集进行训练,而已经训练的深度神经网络可以在推理任务中应用于未知数据。无论哪种情况,虽然计算量很大,运算种类却不多,因为「乘积累加」运算在诸多突触权重神经元激活中占据主导地位。

众所周知,深度神经网络在计算精度低时也能表现良好。因此,这些网络为非传统计算技术提供了一个很好的机遇。例如,研究人员正在探索基于非易失性存储设备的深度神经网络加速器。这类设备在切断电源时也能保存信息,同时通过模拟电子计算能够提升深度神经网络的速度和能源效率。

那么,为什么不考虑利用光学呢?引导光的结构--无论是用于电信的光纤还是用于光子晶片的波导--都可以包含大量数据。在这类波导内部,光的很多波长可以利用波分复用(wavelength division multiplexing)技术同时传播。之后,每个波长可以进行调制(其改变时可以携带信息),其中调制速度受限于与电-光计算和光-电计算有关的可用带宽。

谐振器结构使波导能够添加或删除单个波长。例如,微米级环状(微环)谐振器可以实现突触权重阵列。这类谐振器可以进行热态电光调制,或利用上述论文中提到的相变材料调制。这些材料可以在非晶相和晶相之间转换,这与它们吸收光的能力大不相同。在理想状况下,得出的乘积累加运算只需少量电能。

Feldmann 等人提出了一种在毫米级光子芯片上的全光学神经网络,该网络内部没有光到电的转换。输入的数据被电子调制成不同的波长以注入网络,但之后所有数据都会停留在芯片上。利用集成相变材料来实现权重调制和神经元集成;它们位于两种微环谐振器上,具有突触或神经功能。

在不同工作波长情况下注入的未调制光接收到在相变材料中累积的神经元激活,之后将它们传递到网络下一层。即使没有芯片上光学增益(在这个过程中,一种介质将能量传递给通过它传输的光),这个设置也可能扩展至更大的网络。作者在其上实现了小规模的监督学习和无监督学习

由于权重通过光吸收来实现,负权重需要一个较大的偏置信号,一定不能激活相变材料。另一种可以快速提供负权重的方法是采用 Mach–Zehnder 干涉仪。在这些设备中,单个波导被分为两个分支,之后重新结合,这使得传输光的数量取决于两条路径间的光学相位差。但是,这种方法与波分复用方法的结合可能具有挑战性,因为每个干涉仪的分支需要为每个波长引入合适的相位差。

光学 DNN 仍然面临巨大挑战。在理想状态下,它们的总功率使用可能较低,但热光功率经常需要调整和保持每个 Mach–Zehnder 干涉仪分支中的光学相位差异。此外,注入包含相变材料系统中的总光学功率必须仔细校准,使材料对输入信号的响应完全符合预期。

尽管相变材料可以用来调整 Mach–Zehnder 相位,但材料吸收光的强度和减慢光速之间不可避免的交叉耦合会带来相当大的复杂性。

相变材料似乎非常适合突触权重的非挥发性长期存储,突触权重基于微环共振器,只需要很少的调整。然而,当在神经元中使用时,这种材料的结晶速度会限制神经元被激发的最大速率。

另外,在每次潜在的激发事件后,需要熔化材料以诱导完全神经元复位,这将迅速消耗材料虽然很大但有限的开关耐用性。

传统的 DNN 已经发展壮大,现在的 DNN 通常包含数千个神经元和数百万突触。但光学网络需要相隔很远的波导,以防止耦合,并且避免急剧弯曲以防光离开波导。因为交叉两个波导可能将不想要的功率注入错误路径,因此光子芯片的 2D 特性呈现出实质性的设计限制。

实现光学网络除了需要很长的距离和很大的面积外,每个光子结构关键部件的制造也要求非常精确。因为波导和耦合区域(例如,在每个微环谐振器的入口和出口处)必须有精确的维度来达到预期的性能。

小型微环共振器的制造也有限制。最后,调制技术提供的相对较弱的光学效果需要很长的交互区域,以使它们对通过的光的有限影响达到显著水平。

Feldmann 及其同事在研究中所取得的进步,有望推动该领域的未来发展。开发容易获得的宽带片上增益将大有裨益,支持对每片光学编码数据进行独立和任意操作、而无需大面积光子芯片的技术也同样如此。

如果提供高能效的可扩展光子神经加速器最终出现,Feldmann 等人和该领域其他人的研究将会成为该项技术的开山之作。

论文:All-optical spiking neurosynaptic networks with self-learning capabilities

论文地址:https://www.nature.com/articles/s41586-019-1157-8

类脑运算中的软件实现是图像处理语音识别等诸多重要计算任务以及人工智能深度学习应用的基础。然而不同于真正的神经组织,传统计算架构物理分隔了内存和处理的核心计算功能,导致很难实现快速、高效和低能耗计算。为了克服这些限制,设计能够模拟神经元和突触的硬件不失为一种好方案。当在神经网络或神经形态系统中连接时,这种硬件像大脑一样处理信息。

在本篇论文中,作者提出一种全光学神经突触系统,能够实现监督和监督学习。他们利用波分复用技术实现了光子神经网络的可扩展回路架构,成功展示了在光学领域的模式识别。这种光子神经突触网络有望获得光学系统固有的高速和高带宽,从而能够直接处理光通信和视觉数据。

图 1:本论文中的全光学脉冲神经元回路。a, b:本研究实现的神经网络原理图,包括几个突触前输入神经元和一个突触后输出神经元,二者通过 PCM 突触连接。输入脉冲使用 PCM 单元加权,利用一个 WDM 多路转换器(MUX)进行综合。如果突触后脉冲的综合功率超过一定的阈值,环形谐振器上的 PCM 单元就会转换,输出脉冲就会产生(神经元脉冲)。c:带有符号块的集成光学神经元的光子回路图,其中几个符号块可以使用波长输入和输出连接到更大的网络(见图 5)。d:三组神经元(B1、D1、D2)的光学显微照片,有四个输入端口。左边的四个小环形谐振器用于将不同波长的光从输入端耦合到单个波导上,然后在与大环形的交点处形成 PCM 单元。底部的三角形结构是光栅耦合器,用于将光耦合到芯片上和芯片外。

图 2:人工神经元的脉冲产生和操作。a:一种相变神经元回路的光子实现原理图。b:用电子显微扫描环形谐振器以实现激活函数;c:该器件在 b 中的归一化传输测量(除以测量的最大传输值)及其对脉冲能量的依赖。d:归一化传输到固定波长输出(c 中虚线),显示用于定义神经元触发阈值的激活函数

图 3:利用相变全光学神经元进行监督学习和无监督学习。a 和 b 表示两个神经元在不同输入模式下的输出;C:全光学神经元的无监督学习机制;d:重复显示「0110」模式时四个突触的权重随时间的变化。

图 4:全光学神经网络的可扩展架构。a:整个神经网络包含一个输入层、一个输出层和几个隐藏层。b:神经网络中一个单层结构的光子实现。

图 5:单层脉冲神经网络的实验实现。a:该装置由四个光子神经元组成,每个神经元有 15 个突触。b:输出脉冲强度的变化显示在右侧所示的四种训练模式中。

参考链接:https://www.nature.com/articles/d41586-019-01406-0

理论光学计算Nature光学神经网络
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

激活函数技术

在 计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到"开"(1)或"关"(0)输出的数字网络激活函数。这与神经网络中的线性感知机的行为类似。 一种函数(例如 ReLU 或 S 型函数),用于对上一层的所有输入求加权和,然后生成一个输出值(通常为非线性值),并将其传递给下一层。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~