三位业内顶级大咖对谈:神经拟态计算开启AI芯片「后浪」时代

神经拟态计算,已然成为了 AI 芯片发展的未来。

神经拟态计算发展到了什么阶段?未来数年该如何推动神经拟态计算的发展?其中有哪些机遇与挑战?杀手级的应用又会是什么?

针对这些业界关注的热点问题,机器之心邀请杜克大学电子与计算机工程系教授、计算进化智能实验室联合主任陈怡然,浙江大学计算机学院教授、博士生导师唐华锦,英特尔中国研究院院长宋继强三位重磅嘉宾一起,于北京时间5月20日上午09:00-10:00,聚焦神经拟态计算的未来,共话 AI 芯片“后浪”时代。

以下为实录全文:

主持人:我们都知道深度学习的兴起点燃了计算机体系结构新的黄金十年,新一代专用AI芯片的研发,在“后摩尔定律”时代,依然支撑了我们对算力的需求。不过我们对于计算的需求量要得越多,需要计算的数据量也越大,因为两者都是永无止境的。

那么,如何满足我们对算力的需求?我们身边就有一个绝好的例子,准确说是在我们每个人的身上——人类大脑是已知宇宙中唯一存在的通用智能实例,可以进行复杂的演绎推理,也能够控制我们的手脚进行精密的灵活操作。人脑处理信息的能效是非常高的,平均来说只需要20瓦,比普通灯泡的功耗还要低。正因如此,在上世纪80年代,加州理工大学的卡弗·米德(Carver Mead)教授提出了Neuromorphic Computing这个概念,也就是用大规模集成电路来模拟人脑处理信息的过程。如今,Neuromorphic Computing的研究范畴进一步扩大,对应到中文,我们有“类脑计算”、“仿脑计算”、“脑启发计算”等各种说法,学界最常用的则是“神经形态计算”。

我们今天非常有幸请到这个领域3位嘉宾,以对谈的形式围绕神经形态计算及芯片的最新进展进行相关介绍。他们分别是:

杜克大学的陈怡然教授;

浙江大学的唐华锦教授;

英特尔中国研究院院长宋继强博士。

我们接下来的对谈开始!

陈教授,请您先介绍一下您从事神经拟态计算相关研究以及从事这个方向的原因?

陈怡然:其实我的老本行是做低功耗电路设计,尤其是跟存储有关的电路设计。我做的神经拟态计算或者神经形态计算其实是从忆阻器Memristor开始的,大概在2007年前后,我当时在希捷科技(注:全球主要的硬盘厂商之一)从事新型存储器的设计,也是在那个时候《Nature》发了第一篇忆阻器用来做CMOS的文章,突然间我们意识到,原来我们当时在做的新型存储器,像磁性的或者阻性的,其实可以用来干这个事情。我也是从那个时候开始做神经拟态计算的,前后差不多有十几年了。

唐华锦:主持人好!我的经历与陈教授有些类似。我博士阶段是做人工神经网络的,后来对生物神经网络产生了浓厚的兴趣,想探索一下大脑如何用神经元来完成计算的。2006年的时候我去了昆士兰脑科学研究所从事博士后的研究,想近距离的或者更加深刻地了解生物神经元是怎么工作的,后来就走上了这条以生物神经元模拟计算、建立计算模型这条路。后期是更多是与做神经形态传感器、神经形态芯片的科研团队合作,主要从事从算法到硬件的结合。

宋继强:英特尔做神经拟态计算的历史大概有5年,包括神经拟态芯片Loihi和神经拟态计算系统。英特尔内部每年都有一个长期的技术发展战略研讨,我记得应该是在2015年左右,神经拟态计算这个主题被发现,我们注意到学术界已经有了不错的一些基础,所以通过英特尔研究院把它带到英特尔内部,开始制作神经拟态计算芯片,包括算法和软件上的支持。差不多花了两三年,有了第一颗芯片,然后又把它做成不同规格的系统,有很小的,也有大规模的。同时,我们一直致力于拓展社区,希望能够真正使神经拟态计算成为下一代人工智能的主流硬件系统。

焦点话题: 

AI新浪潮

颠覆还是进化?

主持人:最近有一则新闻非常吸引我们的关注,《华尔街日报》以及其他主流科技媒体都报道,Gartner预测到2025年神经形态计算有望取代GPU,成为下一代AI的主流计算形态。这里面的“下一代AI”是指性能更强、具备认知和学习能力的AI,比现阶段依靠大数据和大算力的深度学习系统更高一级的AI。神经形态计算和传统计算以及大家现在常说的AI计算之间是什么关系?神经形态计算会更先进吗?请宋院长解答一下。

宋继强:我先说一下我的观点,然后请二位教授补充。

我觉得Gartner这个预测有它的立足点,主要依据的是,未来AI计算会全面铺开,各行各业都在应用AI的计算,目前看这是一个大的趋势。

但如果照现在AI模型训练的模式,消耗的能源是不可持续的。在国外有这样一个估计,比如训练一个大型的AI模型,用服务器级别的CPU加上GPU的集群,消耗的电力产生的碳排放,相当于5台美式轿车整个生命期的碳排放。训练一个AI模型就会对环境造成这么大的影响。如果说各行各业都用AI计算,那碳排放的数值会怎么样?地球上的生态会不会恶化一定的程度,或者挤占了我们正常工作所需要的能源资源?如果说我们未来需要这么多AI计算的模型去支撑很多智能的应用,那就必须有新的计算模式和新的应用来支撑这些模型训练和生成的硬件体系。

如何能够在训练过程中保证AI模型能力的情况下,大幅地降低能耗,包括减少训练所需的时间和能够根据新的、少量的数据继续演进,尤其是后者,未来这样的能力非常重要。

现在来看基于大规模GPU并行计算去加速深度学习训练的方式,还不满足这个条件。而神经拟态计算,算法的设计、芯片的设计,都是有可能以很低的功耗——千倍以下的功耗去支撑模型训练,达到同样的效能,甚至能够持续不断地根据少量输入的数据去学习、去提高系统能力,这称为持续学习、终身学习的能力。

从这两个观点来看,业界是希望把AI芯片包括整个AI训练的过程往这个领域去推进的。所以我觉得这是为什么Gartner有这样的预测,它的动机和后面的逻辑我认为都是合理的。谢谢!

主持人:唐教授,刚才听宋院长说了之后,我会认为神经形态计算是比传统计算更先进的计算,是这样的吗?

唐华锦:我基本赞同,宋院长从工业界的观点来说,神经形态计算一句话来说是“环境友好型”计算:一是体积小、二是功耗低,这是生物进化自然而然的一个本质优势。

还有一点,是计算的鲁棒性。很多时候我们并不需要那么精确的计算结果,更多是要能在实时的环境下给出一个“鲁棒”的响应,这时候神经形态计算会体现出比目前用大数据训练出来的深度学习算法更好的鲁棒性以及更好的实时性。

主持人:在您看来神经形态计算现在发展到了什么阶段呢?

唐华锦:神经形态计算相对于传统的人工智能来说还是一个非常年轻的领域,这个概念从上世纪80年代提出,到现在大概就二三十年的时间。传统人工智能从单层感知机开始,中间经历了多层感知机和深度神经网络这两个非常重要的过程,每一个发展阶段基本上经历了二十年左右的时间。

我相信神经形态计算成熟的时间会大大的缩短,可能十年、二十年左右。现在基本的要素已经具备了,包括神经信息编码、神经形态网络的训练算法,以及支持神经形态的硬件,但是算法的优化、硬件的优化可能还需要继续的深入。

陈怡然:我觉得这里面有一件事还没有定义清楚,就是说什么是“神经形态计算”,以及它跟其他的AI或者深度学习计算的区别。实际上,Neuromorphic Computing最开始的想法是在硬件上完全去实现生物神经网络里面所能够看到的结构。在后期,这些应用的一部分也被现在加速深度学习的芯片所借鉴,两者之间的界限不是那么清楚。

刚才主持人提到Gartner预测2025年神经形态计算是不是可以对更先进的算法有促进,比如说除了训练和推理之外,有没有学习或者其他的功能。在我看来,现在神经形态计算的基础算法在本质上并没有跟深度学习所能够实现的功能有特别大的不同。换句话说,前者能解决的问题后者也可以解决,但前者解决不了的问题后者也解决不了,倒过来也是一样。目前并没有可靠的证据表明,神经形态计算能够达到这一代神经网络技术所不能达到的新的境界。这种境界往往可能靠硬件不太能实现,可能需要算法本质的突破。但刚刚唐老师讲的实时性、鲁棒性等之类的功能上的improvements是肯定的,但我不认为这些能被称为breakthrough。这可能是现在没有办法预测的一个事情。

宋继强:我部分同意陈教授的观点。目前来讲从英特尔做Neuromorphic Computing,包括芯片和应用上的收获来看,现在深度学习比较擅长的视觉识别、语音识别这些领域,神经拟态计算能达到差不多的水平。但后者好处在于,我们用的训练数据的量会少很多,功耗低很多。如果这还不足以刺激产业界立刻使用神经拟态计算,那么它必须有要一些全新的价值被挖掘出来。

目前来看,神经拟态计算的确体现了一些全新的价值,比如说在非视觉领域,或者动态规划、约束满足这些也是属于AI领域,但跟现在深度学习的应用领域是搭不上边的,或者利用现在提供了类似于脑的大片神经元互相连接的结构,在算法层面真的是高度利用了神经拟态计算的优势,而不只是把现在深度学习的软件堆栈向下做兼容。

如果利用好了,专门为神经拟态计算设计一些不同的识别算法,这里面很可能要用到现在比较常用的脉冲神经网络算法,然后把它可能带来的标准模态上面的输入互相整合。这是现在神经拟态系统特别擅长的,因为神经拟态计算本身就可以把同质化的硬件区域分割成不同的功能,还可以在这些区域之间创建一些连接,虽然这方面还有待我们进一步探索,但至少在硬件和软件算法的层级是有一定红利的。

焦点话题

芯片造脑

智能时代的新钥匙?

唐华锦:其实我觉得神经形态计算作为新的计算范式被提出来,大家一定对它有很多期望,期待从计算体系结构上面进行完全的革新。

神经形态计算和传统计算本质的不同在于,传统的冯诺依曼架构基于硬件加软件的模式,操作系统要在硬件上运行,需要有一个指令集。但是大脑的基本控制单元就是神经元加突触,其实没有一个软件或者编程的东西来调控,也就是说大脑是软硬件一体的结构。

所以国外有人提出现有的计算架构叫“软件+硬件”。大脑则是wetware,中文对应的是“湿件”。 现在的神经网络,接收到一个信号一定要传递。但是,生物神经元不同,每个生物神经元相当于一个智能体,知道什么时候传递信号、什么时候不传递、如果传递要怎么传递以及传递给哪个神经元,这是完全革新的。所以,我们要做的是如何把“湿件”用计算方式呈现出来,这是我们接下来理论上需要突破的一点。

宋继强:我正好有一个问题想请教唐教授,美国DARPA在2017年、2018年提第三波AI这个特别关注的点,其中有可解释性、长期的终身学习能力这些。如果我们通过Neuromorphic Computing hardware去训练出一个模型,能不能通过观察它的神经元里面的构造和参数对模型形成一些解释呢?如果能的话,这个解释是不是确定性的?

唐华锦:我们目前对生物神经元计算过程的解析有非常大的局限,要么是足够的宏观,但不够精细;要么是非常精细,只能观察到个别神经元,但又缺少宏观的理解。所以用计算机硬件来模拟脑的计算方式,恰好可以更好地理解或者解释大脑如何计算以及包括我们的认知推理是如何产生的。

这方面我们也做了一些初步的工作,不仅仅是模拟深度学习算法可以做的,也包括现有的人工智能做得不是很好的任务。比如说一个复杂环境下的空间感知和认知,因为需要多个不同的脑区域、每个脑区域有不同的神经网络的架构,不同的架构之间通过一定的功能调控来实施,我觉得这正是神经形态计算一个最大的优势,不是单纯解决一个数据训练、模式识别的问题,而是解决多模态感知,而且是非结构化信息的感知和推理。

陈怡然:大家常说我们对人脑不是特别理解,是不是做神经形态计算就没有意义?这其实是不对的,因为你不需要完全拷贝自然界的细节就可以实现相应的功能。大家经常举的例子,鸟是通过扇翅膀来飞的,飞机的翅膀不会扇,但仍然可以飞得更快、更高,神经形态计算其实也是这样。我们做的时候,可用的材料和现阶段的基础,实际上和人的大脑不太一样,能实现的功能也是不太一样的。无法完全实现人类大脑里面所有的功能,这没有关系,因为不需要完全一样也可以做出来很有用的事情,这是大家对神经形态计算一个比较大的误解。

我比较同意唐老师刚才说的,神经形态计算有一个很大的好处就是比较“鲁棒”。我们做半导体往下走的时候,很多东西不是那么鲁棒,之所以要做到多少比特、多少浮点,很大程度上是基于当前数据化基础。如果未来一切变得不是那么可控,比如说我们做忆阻器或者其他的器件是可变化的,神经形态算法是否能够像大脑一样去容忍这样的差错(variation),这其实是很有趣的事情。

宋继强:刚好陈教授提到了忆阻器,清华大学之前也有一篇Nature的文章,全部用忆阻器做了一个AI的硬件系统,那里面提到用了8块2K的忆阻器模块,现在这方面国际上进展到了什么程度?

陈怡然:这件事情大家做了很久了,从2007年HP在Nature上面发表用忆阻器做突触(synapse)到现在已经十几年了。用交叉阵列(crossbar)实现向量和矩阵相乘的工作也有很长的历史。清华的工作主要是用了8块交叉阵列,加上外围的周边电路集中在一个电路板上,实现了多层的CNN,这是一个规模比较大的操作。

跟传统的CMOS或英特尔的Loihi去比,这里面有一个不同的设计思路。传统的CMOS本身是基于逻辑电路的,可以设计得非常高效(efficient)。但是,神经形态计算想实现一个相对比较复杂的功能,比如知道什么时候做积分、什么时候产生新的信号,可能对传统CMOS而言比较复杂,也就可能会丢掉原本有的efficiency。这种情况下,如果可以找到某种特殊的纳米器件,能够用一两个器件就实现相对比较复杂但正好是我们需要的功能,当然就变得比较efficient。

所以,这实际上是另一个问题,也就是说神经形态计算的器件怎么造,是不是造出来像CMOS一样好用,现在看来效果还差了一点。产业界目前已经有了40纳米的基于忆阻器的memory生产线,这个是不是可以做神经形态计算,有很多人在关注。当然,实验室里的demo案例就更多了。理论上来讲,一个器件可以去share更复杂的功能,相比搭建多个晶体管更efficient,但在实际应用中要考虑容错,因此是不是真的有这样的收益,大家也都在观望中。

我有一个问题问华锦,这个问题实际上是别人经常问我的:大家都在说用编码或者其他的方式在理论上都非常的efficient,但实际上我们忽略了神经形态计算的算法,在精度上往往达不到传统深度学习所能够提供的精度。有人主张神经形态计算的功耗比较低,虽然精度达不到,但是模型的规模小,模型的参数少,等等。但是,如果深度学习能够允许精度降低,有大量的方法可以把原有深度学习模型的参数等冗余去掉,压缩后仍然可以达到相对比较高的精度。因此,如果我们把两边的冗余全部都去掉,神经形态计算还有没有这样的优势呢?

唐华锦:这个争议从神经形态计算研究开始就一直都有。我觉得目前神经形态计算确实没有体现出它独特的优势,因为目前训练的架构还是沿着传统的AI模型设计来做的。但我刚刚提到一点,我们确实可以努力在特定问题上达到跟深度学习接近的性能。但是,我并不认为这就是神经形态计算的优势,我认为神经形态计算的真正优势在于能够发挥每个神经元的计算的能力,每个神经元都是一个智能体。这需要学术界更多努力挖掘这种计算本身带来的优势。传统的神经网络优点在于,设计好一个模型,用非常好的优化方法去训练,把目标函数降到最小,就可以达到最高的识别精度。但是神经形态计算或者说脉冲式网络,因为脉冲本身的复杂性,做这种优化就比较困难,达到同样好的性能也是需要付出更多的代价。

同时,神经形态计算还要挖掘每个神经元的自主性,决定什么时候发放信号、什么时候不发放信号,这时候设计怎样的架构就很重要。

另外,神经形态计算要在深度神经网络擅长的应用场景外发挥神经形态计算的优势,比如说需要一个多模态的或者需要不同类型的模型共同做决策,在一个实际的物理场景下理解外界的输入信息,并进行实时的反馈,这是很难用一个数据模型训练出来的。

宋继强:这一点上我是深有同感,我们现在研究院本身也在做自主系统,像机器人、自动驾驶的车辆都属于这种,带有感知能力,又有一些理解和决策能力,同时还有控制一些执行器件。那么这些不是全靠现在深度学习擅长的感知层去解决的,同时也需要多种模态数据的输入。像机器人也好,自动驾驶车辆也好,比如说有一个初始的产品形态或者说软硬件功能,投放到市场实际使用之后,面临着持续不断地要适应环境的变化、持续不断地要观察和去改变它的一些能力来给不同的人提供更好的服务,所以需要有一个自适应性,还有通过少量数据学习的能力。

这一块,目前我们看到深度神经网络由于原来设计的思路是挺难做到的,硬件上面的支持能力也不行。现在通过神经拟态计算,包括像英特尔Loihi的设计特点,是部署了之后可以通过算法、数据的输入改变硬件上的一些参数,从而使其能够更好的适应,把自适应能力加上多种模态的数据输入,整合去学习、去理解一个环境,记录在存算一体化系统里面,这是神经拟态计算的优势,也是非常值得探索的。

陈怡然:我觉得脉冲神经网络里面还有一点,说“鲁棒性”也好、安全性也好,前一段时间说的对抗攻击、防御这些,大部分都是针对传统的学习网络来设计的。脉冲神经网络这块相对研究得比较少,而且里面的机理也可以说更复杂,所以对于脉冲神经网络遭受攻击的concern更少一点。再加上神经形态计算可以通过不同信号相互之间的contract,可以做得更“鲁棒”,这对于外在的攻击或者不友好的操作其实可以更有效的进行保护,现在这方面也有一些新的研究。

唐华锦:神经形态计算还有一些非常有趣的问题有待解决,如果把这些问题解决清楚,会带来神经形态计算在功能和性能上的飞跃。比如说包括神经形态计算优化函数的设计,还有各种模块之间的协调,这是传统的神经网络里面不需要或者没有碰到的问题。

宋继强:我想问一下唐教授,比如说现在设计一个用SNN的模型,通常需要占多大的神经元的数量?最近英特尔推出的神经拟态计算系统PohoikiSprings,将768块Loihi芯片集成在5台标准服务器大小的机箱中,提供1亿个神经元的计算能力,同时可以支持刚才我们讲的多模态、多输入。

唐华锦:上亿神经元的规模,几乎已经相当于一个小鼠的大脑了。期待英特尔能够早日把这样的芯片拿出来,给学术界提供一个研究的平台。

宋继强:2018年英特尔已经成立了英特尔神经拟态研究社区(INRC)。现在有两种开放模式,一种是在云端,可以在上面做训练和模拟;也有单芯片或者双芯片的USB形态的硬件,可以做小范围的神经网络的训练和模拟。我个人也非常期待看到神经拟态计算全交互、全面感知和多模态理解,引领人工智能进入下一个阶段。

这方面我们特别期待跟唐教授这样的专家合作。

唐华锦:谢谢!

陈怡然:我其实比较同意刚才两位聊的这件事情,我们现在很多的比较都发生在神经形态计算不太擅长,但是传统的学习网络比较擅长的领域,这其实并不是一个公平的比较。

回到脉冲神经网络,因为很多人把脉冲神经网络认为是神经形态计算的一个重要的标签,这个不全对,但有它一定的合理性。

很多数据输入进来的时候,本身就是模拟的,甚至就是一个脉冲,但我们往往需要把它重新进行采样,转换成数字的信号,再进行处理。最近看到很多人在讨论,早期也有人在做这样的事情,就是让摄像头的输入数据本身就是脉冲的,这样到脉冲的神经网络里面进行处理,结果直接就出来了,包括一些动态的图像,包括宋院长讲的机器人等等,越来越多的研究在这方面发力。

我不知道华锦从算法角度来看,这是不是一个有意义的尝试?

唐华锦:我觉得只要突破现有的基于大数据训练的方式,都是非常好的一种尝试,这恰恰体现出大脑因为独特的结构带来的优势。因为大脑分不同的脑区,每个脑区有自己独特的结构,这样一个大量的异构的网络,协同起来完成这样的任务,是单一的一种模型难以做到的。比如说我们现在训练好一个网络,如果是单一的模型,就很难再训练它完成第二个任务,因为新的任务进来后往往会覆盖掉之前学到的知识,也就是人工神经网络所谓的“灾难性遗忘”问题。人的大脑因为有一个不同的模块,不同模块之间有自己的连接,可以做任务的协同,也可以做任务之间的切换,恰好能够完成单一的训练方式不能够适应的任务,我觉得这也是下一代人工智能迫切期待的算法模型。这也是神经形态计算能够发挥重要作用的一个契机。

宋继强:这一点我觉得也是很重要的,整个AI的发展来讲,我们现在迈上了一个台阶,但这个台阶需要很大的数据量、计算量支撑。很大数据量这显然不是很多案例能够提供的,特别在实际部署了以后。很大计算量这个事情,刚刚我们已经讲过,对未来的生态肯定是不环保的。

对于生态来讲,英特尔现在做神经拟态计算,也是希望以后能够提供出另外一种数据利用的能效率很高的计算方式,未来十年想通过这样一些计算技术的革新,给人类带来更好的福祉。

我们可能本身涉足于计算架构和软件支撑这一块,比如说我们在英特尔神经拟态研究社区(INRC)里面给出像NSSDK,这其实就是相对底层地在Loihi上面构建你的网络,而不是在更高层的搭建一些框架去用。这样可以更有效的构造不同脑区的结构,并且让它们之间能够连通,属于紧密的软硬件协同的设计。可以这样理解,英特尔提供系统,上面什么功能,完全由软件和算法定义,大家可以在这个上面去比、去看怎样设计更有效。我们现在用的是CMOS工艺做的Loihi芯片,这一版本是基于14纳米做的,下一个版本可能10纳米或者7纳米,可以想象它的密度和能耗会更好。我们现在说一亿个神经元放在了五个服务器机箱,5U的体积里面,功耗是500瓦左右。如果往前前进2个节点,那这个体积肯定可以缩小,或者说体积不变容量大幅增加,而且功耗进一步降低。

在这样硬件的基础上,通过学界和产业界的合作——比如通过世界500强的企业,像波音、埃森哲、GE等等加入英特尔神经拟态研究社区(INRC)——应该有机会找出很多未来比较重要的,现在深度学习还不能够直接解决的一些问题,比如刚才讲的全系统需要多模态感知并且要去控制这个系统,同时还需要让它不断地自学习,能够适应环境的改变。我个人感觉这是一个非常值得大力关注并且需要有更多的脑力加入的领域。

焦点话题:

探索未知

梦想还是现实?

主持人:感谢三位嘉宾的讨论。我们下面谈一谈,如果要促进神经形态计算及芯片的研发,您认为最重要的是什么呢,陈教授?

陈怡然:我觉得根本的问题还是软硬协同。换句话说,刚刚唐教授和宋院长都讲了,我们不可能用现在的深度学习所用到的基础架构去完成它们完成不了的事情,我们必须跳出现有框架。跳出现有框架有几件事:

第一件,硬件的架构一定是不同于现在的深度学习的架构。虽然现在深度学习的架构里面可以看到很多的加速器,其实采用了存内计算或者一些其他的先进架构,但是还不足够。我们希望像英特尔Loihi芯片或者比Loihi更先进的神经形态计算芯片,可以代替到比如说一个到两个数量级,用新型器件或者其他的方式能够实现的应用件。

软件方面,如果还是用反向传播,甚至还是用的终身学习或者用很少数据量训练,可能不足够。我们可能需要用一些只有脉冲神经网络才有的东西,比如说更为复杂的编码形式,更为复杂的计算、更为有效的容错,才能够实现这个效果。

软硬这两件事情必须齐头并进,任何一个方面单独的突破现在看起来都不是最有可能的solution。

主持人:插播一则网友提问,怎样让神经形态计算有大的突破呢?

陈怡然:我觉得现在的尝试本身的方向是对了,但是这个尝试的本身还没有积累足够的证据,让我们可以有信心说,在2025年能够完成这样一个大的突破。更多还是像,我们知道有100条路,但是哪一条能成,我们还不是特别清楚,但是我们知道这100条路最终通向哪里。

如果有大的突破,我个人觉得两件事情:

第一件事情,一定要有新的针对不同应用、不同的信息形式的新的编码,基于这个编码新的计算形式的出现,如果没有这个,可能变成了现在有的神经网络的subset(子集),而不是一个突破性的技术。

第二件事情,在硬件上一定要有更为有效的、更接近于我们想要的那种,甚至是非理性的硬件器件或者电路技术的出现。传统的半导体元件是不是能够达到这一点,我其实是有部分存疑的,因为我觉得传统的半导体不是为此而设计的。如果我们找不到可以充分利用现有半导体技术的神经形态计算的新的算法,可能我们要倒回来,在硬件上面寻找相应的突破来完成这个任务。

唐华锦:我跟陈教授观点稍微有点不一样,我们可能面前不是100条路,没有那么多,大概几条路,大家需要集中力量去努力的,归纳起来两大类:

第一个,算法理论上的突破。陈教授也提到了,神经形态计算不是传统算法的子集,而是一个新的机会。怎么样体现出这个新?研究过人工神经网络神经元就可以知道,每一个人工神经网络神经元有一个确定的输入,有一个确定的输出。但是生物神经元不是这样,每个生物神经元都有它的自主性。如果我们可以在神经形态计算中实现这一点,首先会带来模型学习容量极大的提升。另一个是多种可塑性的存在,现在传统生物学可能只用了非常少的一种或者两种的可塑性,但是生物神经元其实有大量的多种可塑性,如果我们更好的用可塑性来设计网络算法,甚至归纳总结出一些理论,我觉得可以形成一个完全革新的模型。目前已经有很好的一些相关的理论的模型,比如说不需要对称的通路,只需要一个随机的反向传播的通路就可以,这恰恰是生物神经元的特性。

第二点,硬件的发展。现有的设备可能不是特别适合大脑连接的方式。生物神经元是化学物理器件。但是基于现有的电子器件也可以模拟这个事情,可能未来需要更加直接的模拟,比如说忆阻器或者其他的物理器件可以更加接近生物神经元、生物突触,基于碳的结构。

算法和硬件的结合是接下来神经形态计算一个重要的研究思路。之前做算法的人,不需要懂指令集,也不需要懂CMOS是怎样搭配的。但如果设计新的架构、新的神经形态计算,就需要软硬件协同。这确实需要学术界跟工业界一起来合作,来设计更好的硬件来支持算法的研究,或者从算法侧提出更好的新的硬件架构,我觉得这是相辅相成的。

宋继强:刚才两位教授讲的点很重要,我再补充一个维度,从深度学习不受关注到逐渐发展到现在如日中天的状态,实际上经过了一个历程,那就是某些典型深度学习应用达到了甚至超越了人的一些能力,这样才让非常多的人相信深度学习的工作是非常有价值、非常值得产业界大规模跟进的。

对于神经拟态计算,其实也需要有这样的一个出发点:首先,从技术层面推动,刚刚陈教授、唐教授讲了几个点,包括算法、架构、器件的。其次,也是同样重要的,可能我们需要在相关的社区里面,大家要找到一些适合神经拟态计算来做的任务,这些任务原来只有人能做到,但是通过大家共同的努力,让学术界甚至产业界的人都看到,神经拟态计算也能做到这样的任务。这个任务就会反映出我们到底通过神经拟态计算达成了怎样的多模态或者持续学习适应的能力。

在这个过程中,我们可能不是把现在的深度学习作为神经拟态计算的竞争对手,而是要兼收并蓄。比如说对于深度学习已经非常擅长的,模拟人类视觉或者自然语言交互的任务,我们让深度学习的网络去模拟;对于其他的一些,不太适合用深度学习做的,比如说英特尔Loihi芯片做的嗅觉方面的研究,还有机器人操控、多模态甚至于跨模态之间的知识存储,我们用崭新的架构、算法来实现。

从应用方面展示神经拟态计算的突破性,对于产业界接受和快速跟随是非常有帮助的。

主持人:非常感谢宋院长!正好您提到了从应用方面展示突破性,那么作为最后一个问题,请各位嘉宾依次介绍一下,如果应用,您认为神经形态计算“杀手级”应用会是什么?

唐华锦:有两个场景,一个是在非结构化数据,实时性要求很高的场景,比如说大量的边缘计算的场景,因为这是很难用大量的数据来训练,而且很难保证它的实时性的,这是神经形态计算比较有前景的切入点。

另外一个,包括宋院长刚才也多次提到,之前我们也讨论了,怎样体现出多模态的、实时的在线的学习,比如说机器人、无人机需要持续学习和自适应学习的场景下。

请陈教授、宋院长补充。

陈怡然:我个人觉得神经形态计算的一大特点,在处理一些特殊的数据结构或者形式的时候,可能有它的优势。比如说原来它的数据就是一个脉冲的形状或者一个模拟的形状,这时候如果不通过后端而是直接进行处理,是否有相应的优势,这其实是人经常做的事情。人看到一些信号的时候,直接就把它在大脑的神经网络里面处理掉了,这可能是我们将来能够看到的,神经形态计算和数据感知融合的可能性,这个可能性是非常高的。

另外一个有可能有突破的,则是一些高容错的应用场景。换句话说,可能数据里面有噪声,或者出错、丢失这样的情况,神经形态计算高容错的特性就会发挥比较好的效果,这可能是未来能够看到的,我认为是比较有用的场景。

宋继强:我这边第一个跟陈教授讲的点很类似,把现在神经拟态计算,功耗、能力,前端的一些传感器设计联合起来,这样更好的利用按照事件方式进来的数据序列做学习。现在业界方兴未艾英特尔Loihi芯片能有“嗅觉”等是非常典型的把神经形态计算本身的特点和优势跟前端感知层的优势整合起来的应用。

第二个是刚刚唐教授讲的多模块这一块,我个人觉得最有普遍适用意义的场景是在服务机器人,还有智能家居的环境里面,因为服务机器人本身就得是一个能够接受多种形态的输入数据,持续不断地进行学习的设备,而且功耗不能高。因此,服务机器人是非常适合神经拟态计算进一步推广的应用,一旦推广起来,很可能是一个商用或者消费级的产品。谢谢!

陈怡然:我还有最后一句话,大家应该把神经形态计算深度学习、传统计算区分开来,我们还是要对神经形态计算在未来的突破抱有比较大的信心。现在看来越来越多的人在投入这方面的研究工作。我不知道两位是否同意。

宋继强:同意。所以我们也要像你们这样的大咖经常做一些科普。

主持人:感谢三位嘉宾的讨论!我们也对神经形态计算和芯片有了进一步的了解。关于这次直播讨论细节会在机器之心网站上面进行回放,请各位观众朋友们感兴趣的话可以关注我们后续的更新。感谢您的收听!感谢三位嘉宾的参与!

产业神经拟态计算AI芯片
1
相关数据
英特尔机构

英特尔(NASDAQ: INTC)是全球半导体行业的引领者,以计算和通信技术奠定全球创新基石,塑造以数据为中心的未来。我们通过精尖制造的专长,帮助保护、驱动和连接数十亿设备以及智能互联世界的基础设施 —— 从云、网络到边缘设备以及它们之间的一切,并帮助解决世界上最艰巨的问题和挑战。

https://www.intel.cn/content/www/cn/zh/homepage.html
相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

动态规划技术

动态规划(也称为动态优化),是一种在数学、管理科学、计算机科学、经济学和生物信息学中使用的,通过把原问题分解为相对简单的子问题的方式求解复杂问题的方法。动态规划将复杂的问题分解成一系列相对简单的子问题,只解决一次子问题并存储它的解决方案(solution),下一次遇到同样的子问题时无需重新计算它的解决方案,而是简单地查找先前计算的解决方案,从而节省计算时间。动态规划适用于有最优子结构(Optimal Substructure)和重叠子问题(Overlapping Subproblems)性质的问题。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

多层感知机技术

感知机(Perceptron)一般只有一个输入层与一个输出层,导致了学习能力有限而只能解决线性可分问题。多层感知机(Multilayer Perceptron)是一类前馈(人工)神经网络及感知机的延伸,它至少由三层功能神经元(functional neuron)组成(输入层,隐层,输出层),每层神经元与下一层神经元全互连,神经元之间不存在同层连接或跨层连接,其中隐层或隐含层(hidden layer)介于输入层与输出层之间的,主要通过非线性的函数复合对信号进行逐步加工,特征提取以及表示学习。多层感知机的强大学习能力在于,虽然训练数据没有指明每层的功能,但网络的层数、每层的神经元的个数、神经元的激活函数均为可调且由模型选择预先决定,学习算法只需通过模型训练决定网络参数(连接权重与阈值),即可最好地实现对于目标函数的近似,故也被称为函数的泛逼近器(universal function approximator)。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

演绎推理技术

演绎推理(英语:Deductive Reasoning)在传统的亚里士多德逻辑中是“结论,可从叫做‘前提’的已知事实,‘必然地’得出的推理”。如果前提为真,则结论必然为真。这区别于溯因推理和归纳推理:它们的前提可以预测出高概率的结论,但是不确保结论为真。 “演绎推理”还可以定义为结论在普遍性上不大于前提的推理,或“结论在确定性上,同前提一样”的推理。

SSD技术

一种计算机视觉模型。论文发表于 2015 年(Wei Liu et al.)

边缘计算技术

边缘运算(英语:Edge computing),又译为边缘计算,是一种分散式运算的架构,将应用程序、数据资料与服务的运算,由网络中心节点,移往网络逻辑上的边缘节点来处理。边缘运算将原本完全由中心节点处理大型服务加以分解,切割成更小与更容易管理的部分,分散到边缘节点去处理。边缘节点更接近于用户终端装置,可以加快资料的处理与传送速度,减少延迟。在这种架构下,资料的分析与知识的产生,更接近于数据资料的来源,因此更适合处理大数据。

生物神经网络技术

生物神经网络(Biological Neural Networks)一般指生物的大脑神经元,细胞,触点等组成的网络,用于产生生物的意识,帮助生物进行思考和行动

模式识别技术

模式识别(英语:Pattern recognition),就是通过计算机用数学技术方法来研究模式的自动处理和判读。 我们把环境与客体统称为“模式”。 随着计算机技术的发展,人类有可能研究复杂的信息处理过程。 信息处理过程的一个重要形式是生命体对环境及客体的识别。其概念与数据挖掘、机器学习类似。

自适应学习技术

自适应学习也称为适应性教学(Adaptive Learning),是一种以计算机作为交互式教学手段的教学方法,根据每个学习者的特别需求,以协调人力资源和调解资源的分配。计算机根据学生的学习需求(如根据学生对问题、任务和经验的反馈)调整教育材料的表达方式。自适应学习技术已经涵盖了来自各个研究领域,包括计算机科学,教育,心理学和脑科学等等。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

感知层技术

IoT (物联网) 三层结构中的一层,用于识别物体,采集信息等感知类的任务;另外两层是应用层(Application layer)和网络层(Network layer)。

操作系统技术

操作系统(英语:operating system,缩写作 OS)是管理计算机硬件与软件资源的计算机程序,同时也是计算机系统的内核与基石。操作系统需要处理如管理与配置内存、决定系统资源供需的优先次序、控制输入与输出设备、操作网络与管理文件系统等基本事务。操作系统也提供一个让用户与系统交互的操作界面。

目标函数技术

目标函数f(x)就是用设计变量来表示的所追求的目标形式,所以目标函数就是设计变量的函数,是一个标量。从工程意义讲,目标函数是系统的性能标准,比如,一个结构的最轻重量、最低造价、最合理形式;一件产品的最短生产时间、最小能量消耗;一个实验的最佳配方等等,建立目标函数的过程就是寻找设计变量与目标的关系的过程,目标函数和设计变量的关系可用曲线、曲面或超曲面表示。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

无人机技术

无人机(Uncrewed vehicle、Unmanned vehicle、Drone)或称无人载具是一种无搭载人员的载具。通常使用遥控、导引或自动驾驶来控制。可在科学研究、军事、休闲娱乐用途上使用。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

神经形态计算技术

神经形态工程也称为神经形态计算,是Carver Mead在1980年代后期开发的一个概念,描述了使用包含电子模拟电路来模拟神经系统中存在的神经生物学结构的超大规模集成(VLSI)系统。 近来,神经形态(Neuromorphic)一词已被用于描述模拟、数字、混合模式模拟/数字VLSI以及实现神经系统模型(用于感知,运动控制或多感官集成)的软件系统。

摩尔定律技术

摩尔定律是由英特尔创始人之一戈登·摩尔提出来的。其内容为:积体电路上可容纳的电晶体数目,约每隔两年便会增加一倍;经常被引用的“18个月”,是由英特尔首席执行官大卫·豪斯所说:预计18个月会将芯片的性能提高一倍。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

机器之心机构

机器之心,成立于2014年,是国内最具影响力、最专业、唯一用于国际品牌的人工智能信息服务与产业服务平台。目前机器之心已经建立起涵盖媒体、数据、活动、研究及咨询、线下物理空间于一体的业务体系,为各类人工智能从业者提供综合信息服务和产业服务。

https://www.jiqizhixin.com/
流计算技术

Spark Streaming是Spark Core API的一种扩展,它可以用于进行大规模、高吞吐量、容错的实时数据流的处理。它支持从很多种数据源中读取数据,比如Kafka、Flume、Twitter、ZeroMQ、Kinesis或者是TCP Socket。并且能够使用类似高阶函数的复杂算法来进行数据处理,比如map、reduce、join和window。

找到机构
暂无评论
暂无评论~