中科院徐波:中国脑计划的现状和发展方向

去年 11 月底,中国科学院神经科学研究所、中国科学院脑科学与智能技术卓越创新中心、香港科技大学生命科学部和分子神经科学国家重点实验室、中国科学院自动化研究所在《Neuron》上联合发表了一篇概述论文《China Brain Project: Basic Neuroscience, Brain Diseases, and Brain-Inspired Computing》,介绍了「中国脑计划」在基础神经科学、脑疾病和脑启发计算上的研究进展。中国脑计划引起了人们的广泛关注。


最近,该论文联合作者之一,中国科学院自动化研究所所长,中国科学院脑科学与智能技术卓越创新中心(CEBSIT)副主任徐波在中国中文信息学会第八次全国会员代表大会上做了「类脑智能研究及发展方向」的主题演讲,以下是机器之心现场整理的内容。


58391bd733bcd.jpg

非常高兴有机会能和大家一起分享,类脑研究出现的时间不长,这个领域里有很多不成熟的地方,希望我们的研究能为大家带来新思考。


众所周知,人工智能是目前科学界的研究热点。在人工智能领域里,除了深度学习以外,类脑计算这个词出现的也越来越多了。类脑计算通常是指研发新类型的芯片,电子器件和体系结构等等,在软件上与信息处理研究,构建模型和算法等等相关。类脑计算还有一种提法,在 863 的课题里面叫做类人智能。类人智能主要是行为级别的考量,目标是在功能上产生与人可以相比较的智能,但不关注达到目标需要使用什么样的方法,所以这里面有一些细微的差别。


在英文里,类脑在学界存在着不同的说法。有人喜欢用 brain like,顾名思义,通过研究复制或者部分复制人类大脑,这种说法忽略了如何复制大脑;另外一种是 brain inspire,受脑启发的智能,或者受脑启发的计算,简称类脑。这是基本名词和概念的解释。


在内容的第一部分中,我选择了和计算学习相关的一些方向进行介绍。


脑科学对人工智能的启发


今年 1 月初 AlphaGo 打败众多围棋冠军是人工智能快速发展的标志。但其实人工智能最大的前景在于它会在未来 5 到 10 年中与各个行业深度融合。这是一个艰难的过程,因为每个行业都有它的门槛,但是不管怎么样,人工智能已经成为一个国家层面的战略方向。我们现有的大多数的智能可称为大数据智能,或监督数据学习,它的最大特点是:这个系统呈现出多大的智能,它的背后就存在着多少人力的投入。包括围棋的应用、语音识别、图像识别,都需要大量的人工标注性的工作。但是,我们看到的大数据的智能,有两种问题无法解决:


一类问题被称作超大规模空间,这意味着状态空间非常大,数据再多,对这样的问题而言都是稀疏的。此类问题用现有的方法很难解决。


另一个问题在于现有人工智能都是专用的智能。下围棋的系统不能下象棋,扫地的不会擦桌子,它基本上没有自我学习,举一反三,触类旁通的能力。


反过来看看人类的大脑,欧盟 2012 年的脑计划报告中写道:在自然界里,除人脑以外,还没有一个自然或者人工系统,能够具有对新环境新挑战的自适应能力。新信息与技能自动获取能力在复杂信息进行有效的决策,并稳定工作,直至几十年的能力。也没有任何系统能够在多处损伤的情况下,保持像人脑一样的鲁棒性。而且与其他人工智能相比,人脑的功耗非常低。


受脑启发的智能,据我们的理解,实际上是横跨脑科学、认知科学到智能科学,并持续发展的一个方向。在脑科学中,有很多个尺度的大脑的观察机理可供借鉴。其实在很多的脑计划里面,比如美国的脑计划(2013 年启动),它的重点是在突破大脑的观察的技术,测量的技术,希望能看到每个神经元的放电活动。而日本的脑计划(2014 年启动)主要关注于脑疾病。欧盟的脑计划(2012 年启动)主要是做大脑模拟,为新一代的信息处理的研究提供依据。从其他国家的类似计划中我们可以获得很多信息。

1117232-03c82e779aefdd02.jpg

另外,在认知科学中,我们也可以获得很多的信息。比如近年来,我们在大脑中的视觉、听觉、语言中对于认知通路的研究正在变得越来越清晰。在这其中视觉通路的研究是最多的,这些研究为我们理解脑认知功能奠定了基础。


智能科学大家都比较熟悉了,本来就存在一套计算方法在这个领域发展。


20161228170745.png

类脑智能的核心问题在于:我们能不能把脑科学、认知科学和智能科学里面的一些研究成果整合起来,来产生比我们现有的人工智能、神经网络、深度学习,更好的算法和模型。


如图所示,类脑研究有两个源头,一个是神经科学。这是一个统计,过去三十年产生的神经科学的知识,大概是 80 年代以前的 46 倍。现在的神经科学发展速度更快,因为神经科学的发展,主要依赖于新技术的出现。现在每年神经科学新发现的数字,是 80 年代以前的 100 倍,这个速度还在不断加快,越来越很多的知识可供我们使用。


从类脑智能角度,人们可以借用什么东西呢?从大的角度来说,或者多尺度的大脑信息处理,这些机制能不能被我们所用呢?我们现在知道神经元的类型非常多,人脑中有上百种神经元,粗略分类至少有有抑制性的跟兴奋性的两类的神经元。然而,现在的人工神经元都是单点式的简化的模型,还有人在做有树突的人工神经元模型。第二,神经突触的形成跟消亡,是我们最基本的学习的机制。现有的人工神经网络输出都是一类函数,而生物的神经网络,是一种神经兴奋发放模式,一个被称为尖峰神经网络的机制,它和现有的计算机神经网络不一样。


现有认知模型


关于可塑性机制,最基本的可塑性机制比较简单,但在整个大脑中又会产生非常复杂的现象。关于连接,就是神经元的前项连接、后项连接跟撤销的意志,这在生物体内都可以观察到,这就是所谓的神经元。从脑区级别来看,像神经回路、功能环路、基底神经节、丘脑型这样的感知决策模型,和像前额叶脑区、运动脑区等形成的模仿学习功能,像多感知的突兀,它是视觉、听觉、触觉向外脑区上颞叶,与整合区形成了一个多通道学习和记忆方式。它是不同的认知和不同的脑区相互协作的结果,从通用智能角度来看,生物体中还有很多机制可以借鉴。


从认知来看,我们对人脑处理外界信息的方式已经有了大致的了解。人类拥有视觉、听觉、触觉、嗅觉、味觉,结合短时记忆经过工作记忆的处理,可以慢慢地把信息进行理解抽象,变成长时记忆,人类会在成长过程中慢慢形成自我的概念,形成过去的经验。长时记忆会对后来的视觉、听觉、触觉产生反馈与影响。所以从认知的角度来说,记忆模型各不相同,不同类型的记忆实际上利用了不同的通路。像程序性的记忆,我们一旦掌握了某些技能,比如学会了骑自行车,学会了游泳,你就可能永远会都不会忘记,所以这些程序性的记忆,还有像无意识的条件反射,大多被称为内涵式记忆,当然还有外显式的记忆等等。我们在认知科学里面可以做很多认知实验,这些问题将来我们都会去验证、去发现。


从认知科学中我们将获得什么?其实最典型的就是很多人都在用的 random、推理、tension memory 这样的模型。此类模型有三个部分,其中一个就是短时记忆。比如我们进行小组对话,用这个模型做关于对话的理解,那整个对话的意思就是一个短时记忆,系统进行编码以后再进行工作记忆处理,随后你对这个对话可以提出任何问题,系统会产生响应。但在这个对话里面,在理解一个问题的时候,可能需要很多背景的支持,这些内容可能存储在长时记忆模块里。


这是一种典型的模型,我个人认为它是受到认知科学启发的。深度学习研究者们正在进行这方面的研究,这也是我们做的,我们把 tension 机制细化到词级别的颗粒度上,通过多轮的迭代,最后获得需要的答案。由此观之,类脑就是人工智能的发展动力,至少是一个可以参考的路径。除了欧盟、日本,在美国脑计划中专门有一个项目叫做 mapping,通俗来讲,它是要研究一立方毫米体积的一个脑区,把它整个从外面到突出极的所有连接结构绘制出来,美国在这个项目上投入了 1 亿美元作为启动资金。他们下一步计划把探究出来的结构用到人工智能里面。


中国在 2016 年的人大上通过了十三五的发展规划,其中脑科学与类脑研究成为了 100 个重大项目里面的第四位,这些部分都是和脑科学相关的,不仅是疾病研究,还有类脑研究。


换个角度,从人工智能的角度求解这个问题。面对常规的一个问题,系统的求解需要把一个问题形式化,不论是律师、媒体还是下象棋,一定首先需要人的介入,把这个问题分解成几块,其中每一块都可以转化为一个图灵机的问题。然后再用现有的计算机结构来实现人工智能问题的求解。


从类脑智能的角度来看,我们希望计算机能够通过像人一样用序列化的学习方式来减少对人工形式化的依赖。如果我们实现了这一设想,我们就非常接近通用的人工智能了。


这就是第一部分内容:类脑研究主要将不断从神经科学、认知科学,尤其是神经科学中受到启发。


20161229161821.png


类脑研究的主要方向


类脑研究具体是哪几个方向?我们正在探究各种可能性,我们认为大脑具有高度可塑性机制。未来的人工神经网络或许可以受此启发。这是一个 STDP,它描述了人类局部神经元之间突触的连接强度,随着相邻两个神经元先后放电的时间差异——增强或减弱而产生不同表达的神经的机制。这是生物学习机制中最基本的元素,它实现的功能是通过有持续地激活神经元集群,产生神经连接发生有序的强化,可用于储存信息。


这样一个简单的、生物化的学习机制。它是无监督的,非数学化的。例如在空间维度信息的学习和记忆、手写数字识别、图像存储与提取、以及机器人的动作序列学习,还有短周期节律的学习都可以借鉴这种机制。实际上研究人员已经在进行此类探索了。这样的学习机制将会与目前不同的人工神经网络,包括现有的监督学习去比较。它目前的性能比生物体中的效率要差一点,但是仍然达到了 95% 的准确率。目前的探索证明了生物学机制的潜力。纯生物 STDP 可适应机制可以让机器人学会绕着某一条线走路。


这是一种轻监督的任务,机器自己理解路的概念,理解需要沿着路前进。我们在加油站外广场的 24 小时监控图像里,通过人工智能分析,可以识别图像内容,而且对内容进行分类。此外,我们开发了序列记忆系统,它可以识别音乐节拍,然后重现出来。所有这些都应用了这样的机制。


从微观角度来看可熟悉机制,无监督的学习方法已经在上述的一些任务里取得了一定的进展。但是它引出了认知范围的能力的问题。目前的无监督学习只能适用于有限范围内的任务处理,因为它基本没有在结构上面做特别多的处理。


这一领域的研究还有很多方向可以进一步深化。比如秒量级的节律信息处理,就是说研究节拍之间,比如节拍超过几百毫秒的时候,STDP 怎么如何记录这种节拍。如果希望使用生物的学习方式,一定要有结构的配合,包括信息的无监督编码的提取和复杂特征的编码。在这一方面,比如 spike,这个神经网络功耗非常低,同时是弱监督的。生物机制中的 bottom-up 与数学上的 top-down(目标函数驱动)的方法如何整合,来形成新一代的人工神经网络,是未来我们研究的方向。


20161229171847.png


现在有很多其他领域的学者跨界在进行这方面的研究。本次讨论的关键词,可塑性机制,脉冲神经网络(脉冲神经网络和人工神经网络的输出不同,它不可微分,所以数学上的原有的理论不能适用)还有强化数据深度学习。这些概念,如何整合在一起?如果可以提出一个新的模型,它的学习效率更高,对数据的依赖性、监督性、标记的依赖更弱,会是非常有意思的工作。


20161229175958.png


第二个方向,实际上认知功能都是由若干个环路或者是一个通路组成的,是若干脑区构成的一个通路。这个体系作为整体呈现出人类的认知功能,从计算的角度来看,最核心的问题在于,不同脑区之间是什么样的协同关系?刚才的讨论中已经提到了一部分,很多的功能,包括模仿、决策、整合,都需要十几个脑区协同合作(假如细分的话,这个数字会更大),但整合起来才能产生复杂强大的认知功能。脑区有几种组织方式?我的看法倾向于层次化的方式,尤其在感知方面,在视觉方面这种方式非常明显,从感官到第一要区,再到高级的认知功能和记忆、判断推理、眼动、控制四肢手、运动规划都有这种方式的痕迹。


20161229180205.png


另一种组织方式体现在高级认知系统中,我认为是模块化的。不同的脑区之间有相互反馈和信息的交互。比如记忆系统的沟通,强化学习性,它的连接关系相对来说是层次性的,比视觉系统复杂。在研究协同方面,我们也做了很多工作,比如视觉和层次的研究,我们根据现有的神经科学数据,构建了视觉的各种模型,它和以前的此类模型,包括 20 年前的听觉模型等方式大不相同。在新的视觉模型中,我们通过多层次构建了一个符合生物进化机制的目标函数,来求解区域之间的连接强度。


当然模型每层之间也有新的特性,例如侧向连接。模型中神经元的数量来自于一些生理数据。受到这些结构启发的模型,它在感受、空间分布,还有相应的神经元细胞的响应,实际观察来看同步性是非常相似的。


当然,模型还包含有类结蹄组织结构,神经元的倾向分位,差异分布等等特性。我们看到的协同,就是层次化的脑区的协同,我们希望能够构造符合生物进化机制的目标函数,使得它能量消耗最低。具体表现为突出的、连接的低能耗,还有表征的低能耗。另外我们从多脑区、高级定制、协同等方面也进行了研究,开发出了进阶模型。模拟了十几个脑区,完成从视觉编码开始,到最后做出决策的所有任务。这种模型被称为运动感知和决策模型。其中包含兴奋性通路和抑制性通路,还有内部的连接关系及扩散结构,不同的脑区相互作用等等。


应该说,这个模型基本上是用仿生的思路开发的。另外,我们对单个神经元的类型也做了很多的尝试。我们用不同类型的神经元构造出整个网络,模拟了脑区之间的竞争的机制,学习行为选择和权重更新等机制。


这个模型最终展现出来的学习机制总体而言比较简单,就是通过多巴胺的释放来调节学习的速度,这有点类似于奖惩信度分配——强化学习里面的逻辑机制。它呈现出了类似强化学习的功能,但它的复杂度、学习的速度都比后者要快。我们把刚才提到的视觉层次化与运动决策模块化整合在一起,研究无人机躲避障碍和处理突发事件的新方法,这些实验也是我们研究的一部分。这类研究最大的特点就是它具有可解释性,它完成每个决策时,每个脑区,每个神经网络发挥的作用都可以解释的,研究者可以清楚地观察到。这是我们新一代人工神经网络的重要特征。它不像现有的监督学习方式,在训练后处于黑箱状态,人们无法获知神经网络每一层的功能。我们的模型从仿生角度设计,可以较清晰地观察特定脑区在发挥什么样的作用。


第三部分更加复杂,但对于类脑智能的价值也非常大。就是探究如何构造一个可以发育演化的模型。现有的神经网络学习与人类最大的区别在于时间尺度。人类的学习也许会经历几年或几天,它的时间序列非常长。我们目前的感知系统无法这样学习。我们的机器学习始终把目标函数作为优化的唯一的机制。而且在优化过程中,我们能看到其中有很多表示,其中印证了神经科学的一些发现,包括刚刚讲到的脑区细胞类型、分子状态、计算和存储的机制。


在最早神经科学把神经元的概念引入到机器学习中,启发了深度学习等方式之后,最新的成功研究和神经科学的关系越来越少了。但是,我们现在看到神经科学与机器学习融合的新机会正在出现。我们首先意识到机器学习的目标函数正在变得越来越复杂。现有的大多数神经网络都是单一目标函数,但有很多的神经网络可以随着不同的神经层、深度、时间产生变化。比如学习次数不同导致目标函数的不同, 它可能会有持续的捆绑性,我们在底层机器学习的设计中也许需要把它考虑在内。还有大家最熟悉的对抗式学习,它是由两个神经网络组成的,用一个网络修正另一个网络的输出的目标函数。这些方向为我们未来的机器学习模型打开了思路。


为了使优化更加高效。机器学习已经发展出了不同的网络结构。


神经科学与人工智能之间的关系存在三大假设:


1、大脑具有优化目标函数的能力。大脑特定的脑区,特定的结构具有在数学层面上优化目标函数的能力。


2、目标函数在不同脑区和发育阶段是不同的,现代机器学习的发展,实际上也是从这里受到启发的。


3、大脑中存在大量的专用机制,这是天生的、在进化中得来的,可以有效地解决一些关键的计划问题。


从大脑优化目标函数的方式中,我们可以观察到人类在运动过程中其实有很多的策略,从进化角度考虑,人类必须减少能量的消耗,减少运动的风险,降低受到伤害的几率。我们目前认为目标优化策略机制在大脑中广泛存在,它们形成了不同的特定处理方式。


那么大脑目标函数优化的确切含义是什么?有很多的网络结构,比如馈增网络,有些存在反向通道,STDP 机制和一些相关结构。在经过学习后可以产生和数学上的 BP(错误反穿)一样的效果的学习机制。但目前有关大脑中存在 BP 学习机制还是一种假设。在神经科学中,哪一种运行机制假说是对的还没有定论。但这些假设可以给人带来很多启发。


第二个假设是目标函数在不同脑区和不同发育阶段是不同的。这很容易让人理解,在构造神经网络应用的时候,可能一个网络被用于进行分类、决策,另一个网络会不断地随时间、环境,或者被其他动机驱动,产生变动的目标函数,因此,这个神经网络就会更加适应环境,具有更好的表现。

20170106164613.png

目前的深度学习正在向无监督方向发展,人脑是否存在真正的无监督学习?我们现在仍然只能进行假设,因为大脑实在太复杂了,目前的神经科学还难以支撑这样的结论。顺着假说的思路,利用无监督学习来解决特定的问题是目前研究者面临的挑战,如果按照刚才的优化目标来看,大脑目标函数是随着时间和不同的发育阶段而变化的。因此,我们需要探讨的问题是,真正的演化是不是根据当前的状态?我们能不能通过一系列目标函数来建立回路和行为?


我们总是希望用较少的数据来训练完美的模型,人类的大脑在进行学习时不需要一个具有数百万已标记数据的数据集来训练。人类只需要一些简单的逻辑和少量事例,就可以触类旁通,仅需要非常少的数据即可完成训练。


现在,我们希望计算机可以把复杂的问题分解成若干的不同的阶段,每阶段只需少量数据进行训练,输出相应的目标函数,如果这个方向出现了成果,那么人工智能就向前迈进了一步。


第二,在增强学习上,我们目前认为大脑中普遍存在此类机制。增强学习和深度学习正在不断地被整合,此类研究也已经出现了很大的进展。它的基本思想就是用强化学习来产生定义的目标,也就是说所谓的有效错误反弹,它也可以理解为通过学习需要达到的目标,加上强化的过程。我们可以把这种学习方式理解为不断变化的 cost function,加上半监督学习。


第三,专业系统如何进行有效计算的问题,这与实现机制结构相关。不同模式的信息在不同领域中被用来解决各种类型的问题。有些区域是 highly recurrent,有些区域是在不同的激活状态,有些区域好像在做信息的路由,基底区在做增强学习跟离散的决策。在大脑中可能存在一些较为固化的结构在做无监督学习,这意味着深层次的模型可能是大脑中的固定结构,因为深层次模型是不需要监督的。


还有一些有关物理世界固有特性的目标函数,比如说一个物体,我们推动它会产生惯性。在特定结构下做出优化,即使有一组强大的基因来决定,我们的 cost-function 要在一个空白的网络上演化出复杂的认知也是非常困难的。


20170106164758.png


从大脑中寻找灵感


预设一个结构对解决复杂问题而言是必要条件,优化公式的学习是在复杂的动态的协同过程中完成的。我们知道大脑中存在很多特殊结构,用于完成各种类型的任务,这种机制并不需要经过大量学习。目前,智能研究社区非常关心大脑到底有没有反向传播(backpropagation)机制,我们可以设计一种模型,实现类似大脑的反向传播,但从生物学中更复杂的技术层面上看,类脑的角度是非常有益的。无论如何,一旦生物运算机制被我们破解,我们就可以把它复制到计算机领域中,使得人工智能程序的学习变得更加简单、更加有效。


在演化部分里有这样一个结论:假如我们目前的技术向内容的认知能力方向发展,最后出现的算法将会远远超出目前硬件技术所能容纳的范围。从大脑的角度来看,目前人造的数据驱动方式都无法达到人脑的运行效率。所以,我们需要转变思路,吸收很多的模块化机制,反应偶然性的推理方式,原始物理和心理机制,来构建能够理解感知现实世界的模型。


DARPA(美国国防高级研究计划局)的局长在 2014 年的一份报告中讲到:生物是自然界的终极创新者,任何直观创新的机构如果不从作为复杂系统的大脑中寻求灵感,都将是愚蠢的。


大脑拥有上千亿个神经元细胞,百万亿的突触形成的网络,其复杂程度也许让我们一时难以复制。我可以先用一个简单的模型来说明这个问题:亚马逊蚂蚁,上千只蚂蚁组成的群体,当它形成一个环形的运动状态,它会一直爬行,直到所有蚂蚁都累死为止。但是当遇到阻碍的时候,它们又能搭桥;碰到蛇的时候,它们可以互相配合进行抵抗。蚂蚁的行为非常简单,但它们可以通过协同合作来完成个体无法做到的任务。对于大脑来说,原理也是类似的。当我们最终了解了大脑的复杂系统信息共享,自主性和实际性信号处理等等机制的秘密,人类的科技水平将会出现新的突破。


20170106153149.png


有人说现代科学已经进入了复杂性微积分时代,我们正在从多种研究角度,从心理、计算、动力学、混沌、进化等不同的角度在研究复杂性。但是整个生物学领域里面,越来越多信息处理的思想来正在形成我们理解动物行为的理论框架。虽然在生命系统中,信息的处理和计算的完整概念还非常的模糊,科学家们对于它定义的形式化都还没有形成共识。但是,可以预见的是,计算机科学及更广泛的计算领域终将从类脑智能的研究中获益。


以上是我个人对于类脑智能的一些见解。这是我们目前正在进行的研究,把一个鼠脑的几百个脑区,七千多万个神经元用一些现有的信息处理方法进行完整的模拟。现在,我们的研究还处于初始阶段。在全脑的尺度中,即使是一些非常初级的功能也需要进行大量的探索,但我们的征途已经开始。


谢谢大家。

入门脑科学类脑计算理论演讲中国科学院徐波
暂无评论
暂无评论~