Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

用光学芯片打造深度学习专用计算机

早在半个世纪前,就已经出现了用光取代电子建造计算机的想法。「光计算」与传统电子计算机相比,运行更快,能耗更低。然而,尽管科学家殚精竭虑,研制比现今计算机高级的光学元件,生产切实可行的光学计算机前景依旧暗淡。虽然有着诸多阻碍,现在光学计算机似乎正重新整装待发,研究者们在测试一种新型光学计算机芯片,为人工智能设备铺就了新的道路。该类智能设备有着与自动驾驶汽车等同的智能程度,同时又很精小,能放进口袋。

传统计算机的工作依靠电子电路交替运行,开关严格与两个数字的乘积相一致。光学计算机的运作原理于此类似,但数学计算不再依靠电流来进行,而是相互作用的光子束和透镜、分束器等导光元件。与必须克服电阻并沿着电路迂回曲折传输的电子不同,光子没有质量,以光速行进,一旦产生不会带来额外的能量消耗。

麻省理工学院的科研人员最近在 Nature Photonics 上发表了一篇论文,提出光学计算会非常有助于深度学习——推动人工智能重要技术的进步发展。深度学习需要的计算极其庞大:把大量数据集提供给模拟人工「神经元」构成的大型网络,这种「神经元」是基于人类大脑结构设计的,但很简略。每个人造神经元吸收一组数字,将这些输入进行简单计算并把结果传递给下一层神经元。通过调节每个神经元执行的计算,一个人造神经元网络能学习执行多重任务,比如识别猫,能驾驶汽车。

深度困境


深度学习已经成为人工智能的核心,像 Google 和芯片巨头 Nvidia 这样的大型企业都斥资百万研发深度学习专用芯片。人造神经网络的大部分时间都花在了「矩阵乘法」运算上——每个神经元把它的输入相加,并对每个输入赋上不同的值,这种正是芯片利用了这一优势。比如说,在面部识别神经网络中,有些神经元会去寻找鼻子的特征。这些神经元就会给那些与狭小的深色区域(比如鼻孔)相关的输入设置更大的值,给明亮的斑块(如皮肤)设置稍小的值,而对荧光绿这种颜色(不太可能会出现在鼻子上)设置的值就更低。通过将这些任务分发给上百个微小并相互独立的处理器,专用的深度学习芯片能同步进行加权运算,极大提升运算速度。

这种类型的工作负荷所需的处理能力与一台微型超级计算机相当。奥迪和其他制造自动驾驶汽车的公司,相当大手笔地在后备箱放置了整个计算机机架,但如果要给人工智能无人机或手机配备这么高的处理能力就没那么容易了。而且即使神经网络能运行在大型服务器农场里,就像 Google 翻译或 Facebook 的面部识别,这种高负荷计算消耗,电费就能达到百万美元。

2015 年,MIT 的博士后,也是这篇新论文的第一作者 Yichen Shen,试图寻求一种创新的深度学习方法来解决这些能耗和尺寸问题。在此过程中发现了论文共同作者 Nicholas Harris 的研究。Nicholas Harris 在 MIT 攻读电子工程和计算机科学的博士学位,构建了一种新型光学计算芯片。虽然以前大多数光学计算机都没有成功,Shen 意识到可以把光学芯片和传统计算机进行结合,开启深度学习的新愿景。


复合型计算机


许多研究者很多年前就放弃光学计算了。从 1960 年代开始,贝尔实验室就花费巨资研发光学计算机部件,但最终他们的努力并没有太多成效。法国上阿尔萨斯大学(Upper Alsace University)的光学计算教授 Pierre Ambs 表示,「电子晶体管的光学等同物一直没能被开发出来」,而且光束也无法进行基本的逻辑运算。

与以往绝大多数光学计算机不同,Harris 开发的新型芯片并不是要取代传统 CPU(中央处理器)。它的设计仅仅专门用于量子计算,利用亚原子粒子的量子态进行运算,速度远超传统计算机。在参加 Harris 举办的新型芯片研讨会时,Shen 注意到量子计算与阻碍深度学习的矩阵乘法是等同的。他随即意识到,深度学习也许会是让光学计算被雪藏几十年的「杀手应用」。受此激发,MIT 团队把 Harris 的光学芯片集成到一台普通计算机内,让一个深度学习程序把它的矩阵乘法运算下发到了光学硬件上。

当他们的计算机需要进行矩阵乘法时——数字的加权运算,它会首先把数字转化成光信号,用更亮的光束代表更大的数字。这样光学芯片就把整个大的乘法问题分解成了很多小的乘法运算,每个小运算都由芯片的单一「细胞」来完成。为了理解细胞的运作,想象一下两股水流(即输入光束)流入其中,然后流出也是两股。细胞就像是水闸和水泵组成的晶格,将水流分成两股,控制水的流速,然后再将它们合在一起。通过控制水泵的速度,细胞能引导不同量的水进入输出流。

水泵的光学等效物是加热后的硅(导电)通道。Harris 解释说,加热以后,「(硅)原子会稍微分散,导致光以不同的速度传输,」让光波互相增强或抵消,就像声波那样。(抵消效应就是消噪耳机工作的原理)。传统计算机设置加热器,每个细胞输出通道流出的光流量就是输入的加权和,加热器决定权重大小。

要有光?


Shen 和 Harris 通过训练单一神经网络辨识不同元音字母的发音来测试芯片。结果只是中等水平,不好不坏。但 Shen 认为,这是因为重复使用了不完全合适的器件。比如说,用于数字与光信号相互转换的元件只是粗略地验证了概念的正确性,选择它们只因为容易跟 Harris 的量子计算芯片集成。而根据他们在 Nature Photonics 上发表的论文,他们专为深度学习打造的计算机,性能极好,足以达到与最好的传统芯片同等的准确度,同时降低了好几个数量级的能耗,速度提升了 100 倍。这样的性能甚至足以让手持型设备具备人工智能,且只需将这种能力内置在手机,而无需把大量工作负荷转嫁给大型服务器,如果没有他们的研究,这本来几乎是不可能实现的。

当然,光学计算机一波三折的发展史也留下了很多值得怀疑的地方。「我们不应该太过兴奋,」Ambs 警告道。Shen 和 Harris 的团队目前还没有开发出一套完整的系统,Ambs 的经验告诉我们,「对初级系统进行跨越性的改进绝非易事。」

即使如此,甚至 Ambs 也同意这项工作「与 90 年代光学处理器相比,是一个非常大的进步」。Shen 和 Harris 也抱着同样乐观的态度。他们正着手组建一家初创公司,对该项技术进行商业化,并很有信心地认为更大型的深度学习芯片也能实现。现有芯片的不足都能找到解决办法,Harris 宣称,所以「这只是一个工程上的挑战,只需要找到合适的人,并真正去着手建造,一切都将迎刃而解。」

产业产业计算机光计算MIT硬件芯片
暂无评论
暂无评论~