GMIS 2017大会圆桌论坛:机器学习的前沿与交叉研究

全球机器智能峰会(GMIS 2017),是全球人工智能产业信息服务平台机器之心举办的首届大会,邀请了来自美国、欧洲、加拿大及国内的众多顶级专家参会演讲。本次大会共计 47 位嘉宾、5 个 Session、32 场演讲、4 场圆桌论坛、1 场人机大战,兼顾学界与产业、科技巨头与创业公司,以专业化、全球化的视角为人工智能从业者和爱好者奉上一场机器智能盛宴。

5 月 27 日,机器之心主办的为期两天的全球机器智能峰会(GMIS 2017)在北京 898 创新空间顺利开幕。中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃为本次大会做了开幕式致辞,他表示:「我个人的看法是再过几年,我们 90% 的工作是人工智能提供的,就像我们今天大部分工作是机器提供的一样。我们知道人工智能会给我们提供一个更美好的未来。」大会第一天重要嘉宾「LSTM 之父」Jürgen Schmidhuber、Citadel 首席人工智能官邓力、腾讯 AI Lab 副主任俞栋、英特尔 AIPG 数据科学部主任 Yinyin Liu、GE Transportation Digital Solutions CTO Wesly Mukai 等知名人工智能专家参与峰会,并在主题演讲、圆桌论坛等互动形式下,从科学家、企业家、技术专家的视角,解读人工智能的未来发展。

下午,在腾讯 AI Lab 副主任俞栋的主持下,《机器学习的前沿与交叉研究》主题圆桌论坛顺利展开。Citadel 首席人工智能官邓力、北师大认知神经科学与学习国家重点实验室教授吴思、麦克马斯特大学工程实践与技术学院助理教授高振以及 Bay Labs 科学家 Johan Mathe 就机器学习与神经科学、语言学等话题展开了深入的探讨,呈现了一场精彩的前沿思想碰撞。
图片1.png

问题一:各位怎样看待机器学习与认知智能之间的关系?

高振基于自身机器人研究背景,率先提出人工智能方法可以让机器人更加智能的观点。目前已经有许多方法都在思考如何将数据应用到环境中进行测试以及智能地决策。一些机器人公司不希望把机器人系统开源、把信息分享出来,这与机器学习行业中或者社区中所做的不同。「我们有一些平台进行机器人的学习,现在他们慢慢地想利用新的开放平台进行应用,并尝试把新想法融入到自己的公司中去。」高振同意 Gary Marcus 演讲的观点,即人工智能现在还不够成熟。在过去几年里,人工智能有点冷下来了,而现在我们又处在人工智能成为热门话题的时代。「这是我们的机会,也是我们的挑战,因为这个领域的研究非常多元化。我想说,我们很幸运正在这个领域努力工作着,但是它也需要其他领域人的合作和贡献,这样才能促进人工智能有更长足的进展。」

Johan Mathe 认为这是一个非常有意思的话题,他提出了两种方式。一是用控制的方法进行机器学习,具有 200 年历史的控制系统可以给我们提供很多数据;二是可以利用深度学习或者强化学习训练数据,让机器可以学习、实现自我的完善。

邓力在谈到智能管理与机器学习之间的关系时称,通常情况下学习就是要预测,现在有三种预测。他认为对于认知控制就如你拥有一个模式,比如说牛顿定律,这个模式的目标就是要学习他的一个行为,这样可以最终达到最优功能。

具有机器学习背景、并对大脑科学感兴趣的吴思坦诚:「我对于智能控制了解不多,但是可以对于生物学习说两句。」他认为,从神经科学角度来看,生物学习比机器学习更为复杂,具有很多不同的学习规则,而人们现在对于生物学习的规则,甚至是对于有监督学习的了解都是不够深刻的。生物要想能够学到更好的,更多的是利用无监督的学习。「问题就是,这怎么能够让人类学到他现在学到的这些东西?这也是无监督学习的一个原则,而这个学习机制我们现在还不是很清楚。」

问题二:各位怎样看待神经科学和机器学习之间的关系?我觉得这是一个很好的值得讨论的问题。

吴思刚开始是研究有监督的机器学习,那个时候还没有超高速的计算机,研究进展也非常缓慢,这使他感到很沮丧。于是,他就尝试对神经系统进行探索,希望可以得到一些启示。现在他看到深度学习已经取得了长足的进展,也认为可以从生物的神经系统里面学到很多。目前为止,机器学习的应用都是一些非常直接的,比如分类等简单的工作,都是静止的。而神经系统都是实现一些动态的,跟世界有充分的互动的应用。「我认为在未来,如果说有真正的人工智能出来,我个人认为它应该学习神经系统。当然我们不需要让机器去模拟照抄大脑的系统,但是也可以从人类的神经得到很多。」

随后,Johan Mathe 谈到了多元化的话题。他提到了于上月发表的一篇文章,这篇文章提到一些伯克利的神经科学家把 1970 年的电子游戏中的微处理器拿出来,就像分析哺乳动物的大脑一样在实验室里分析微处理器。可是这些神经学家一点都不理解微处理器中一些比较高级的算法。Johan Mathe 觉得这篇文章的论点非常有趣,「我想现在用神经科学作为一个例子来让我们更好的做机器学习是一个好主意,但是我们要谨慎。在我们还不了解哺乳动物大脑本身的情况下,拿它做例子来给机器学习提供启示,我们是需要采取谨慎态度的。」

高振认为,大多数的机器学习都受到神经网络、深度神经网络的启发,也有一些是受到人类认知系统的启迪。「在神经网络方面,我们可以看到一些新设计出来的神经网络更类似于人类的神经大脑。但是这还是不够的,要想接近人类神经元的水平或是人类的认知系统,机器学习还差得很远。」

邓力表示,曾在四五年前与吴思教授聊天谈到神经元采用自然的生物波峰、波谷进行信号传递,而机器学习则利用模拟和数字信号,这是一个比较二者的很好的一个切入点。邓力称,有两种看待这个问题的方式,一是神经元由于生理所限,无法做持续的模拟信号,只能做一个脉冲;二是如果用脉冲来传递信号,对于学习是有优势的。不过,到目前为止也没有一个彻底的理论来进行电脉冲与模拟信号的各种利弊分析,只能说采用脉冲来进行信息的传递是节能的、低功耗的,比 GPU 功效低。「但在另一方面,我还想请教其他的演讲嘉宾来帮我回答,这个问题就是脉冲在生物系统里面使用的方式。我觉得一个大脑有太多的神经元了,如果我们要让人工智能达到人类大脑神经元的数目,也许那个时候神经系统的管理可能也会是由脉冲来进行的,是具有巨大功耗的。这是一个我们可以去思考的方向,是人类大脑给我们的一个启示。」

吴思也抱有同感,他表示为什么在人工智能中考虑脉冲是一个已经被讨论过很多次的话题。他认为,我们确实应该从人类的电脉冲里面学到很多。

不过,高振则对这个领域持保留态度,「因为我不太了解大脑是如何工作的,如果我们刺激大脑的某一个处理功能,只能了解到大脑如何在低层次观察,不能了解它在高层次上是如何运作的。同时我们也不太了解大脑如何同时做多项任务,所以这是我的保留意见。」

吴思对此表示认同,因为大脑的功能非常复杂、难以理解。「当我们去比较神经科学的时候,我们不止要让机器模拟人的大脑,还要理解大脑运作的一些模型跟原则。现在我们在一个非常微型的层次上,想要把这些大脑的原则联系在一起,看它能不能把这些连接到机器学习里面。我觉得机器学习跟神经科学的研究应该是并行前进的,有的时候是神经科学能够给机器学习提供启迪。」

高振补充道:「大脑是多功能的,它具有情绪,能够完成任务,也可以感到焦虑,我们的一切都可以在大脑中完成。但是如果我们使用机器学习的话,目前来讲,它只能做一部分工作,不能做多元化的工作,所以人工智能总的来说还不是很成熟。同时我们也不太了解大脑如何同时完成多功能的任务。」

对此,吴思表示,如果在某一项很特别的任务上,我们不需要从神经去学习太多,但是如果想让机器完成多功能的或是更高智能的一些功能,我们需要对人类大脑进行对照,毕竟它进化了那么久,留下的都是最好的功能。
 
高振回应道:「达尔文《进化论》我们以后再谈,因为我们不知道恐龙灭绝之后具体发生了什么,我们也不知道智人到底是怎样渐渐产生的,有可能人类的智慧也是某一种工程设计的结果,所以达尔文这个理论我也持保留意见。」

在这个问题单元的最后,Johan Mathe 谈到了一个关于机器学习如何启迪神经科学的研究。哈佛大学有一组联结主义的实验中,科学家们选择连接一组数据集,并把大脑中一立方毫米的神经元中的信息搜集进来,从一些单元里面得出一些深度学习的语言。Johan Mathe 认为这个研究是非常有价值的。

问题三:关于机器学习如何影响语言学的研究,各位有何高见?

邓力认为,对语言学提供一些理论框架有利于帮助我们进行自然语言的理解。大多数对于语言的理解都是基于数据的分析,很少抽取出一些真正的结构和规律,也无法令人满意。如果能够真正使用语言学的一些理论来引导机器学习,对于自然语言的研究,我们应该能够比现在用机器学习的原则来指导学习效果好很多。邓力谈到他曾与一位来自霍普金斯大学、对于神经处理有很深的造诣的认知学家在一个项目上一起合作过几个月。当时,他们把语言的结构嵌入到神经结构中,并于不久之前把实验结果提交给权威机构,机器之心也曾展示了这项研究结果。(详见:微软提出深度学习新架构:使用问答系统来得到语法上可解释的表征)「语言给机器学习提供的启示并不需要非常精确的理论,只是一些基本框架就好。把基本的语言的内部结构借用到机器学习当中、引进到机器学习当中,哪怕你现在看不到它实在的益处,将来也会看到它一些有益之处。」

俞栋提出,语言学可以分成几个子领域,比如理论语言学、计算语言学、应用语言学,某些领域里还是有一些很大进展的。在早期的时候,人们想发明出一些规则,希望能够用这种基于规律的学习让机器来进行翻译,但是现在机器翻译更多都是基于机器学习的原则。对此,俞栋发问论坛嘉宾,「对于机器学习改变语言学的研究,不知道你们有没有额外的想法?」

邓力认为在这个领域机器学习是具有很多优势的。比如语言学属于人脑先智性的、是内化的,他也曾跟许多语言学家合作,这里面有很多的内容,是可以进行机器学习的,也具有这样的驱动力。

相反,高振表示:「我觉得语言学家还没有认识到这点,比如像 Google 翻译器、讯飞或者搜狗翻译器,他们仍有很多需要改进的地方。」

问题四:近年来,我们看到了很多的研究是属于深度学习之上的内容,比如包括图像的合成、语音合成等等,这方面大家想法如何?

邓力相信这种合成是在深度学习方面很好的内容,他也一直推动这样的发展。「如果你回到神经网络的方法,要做深层其实是更难的,你必须要确保图像跟你的要求是匹配的。所以我们一直在说通用模式或者其他的模式,我觉得对于我们来说这是一个进步。我们的实验室也做的非常努力,我们希望利用这些现有的技术能够做到这一点。」

吴思表示:「我们的任务是线性化的,而且我们也要知道自己想要什么,会使用机器学习来解码这些任务。我们的这个机制跟大脑有关,需要做一些合成,这是我们通常模式的做法。我们使用这样的一种方式来看我们的假想是否与我们的观察是一致的。」

吴思认为现在的通用模型是深层的模型,神经系统用了不同的记忆方法,跟深层学习是不一样的,更多的是把这个物体之间的相似性进行理解。我们在深度学习当中接受一些知识或者一些想法,也可以通过这种比较来进行学习。

产业产业机器之心GMIS 2017神经科学