李泽南作者

发展第三代人工智能:清华AI研究院基础理论研究中心成立,朱军任主任

人工智能正处在高速发展时期,而清华的研究人员却早已意识到了目前方法的局限,并放眼于下一代技术上了。5 月 6 日,清华大学成立了人工智能研究院基础理论研究中心,这一机构将成为「第三代人工智能」研究的发动机。

在揭牌仪式上,清华大学宣布朱军教授担任基础研究中心的主任。张钹院士、中国科学院院士郝跃与卡内基梅隆大学计算机学院教授、摩根大通人工智能总负责人、人工智能专家 Manuela Veloso 教授担任学术顾问。清华大学副校长、清华大学人工智能研究院管委会主任尤政院士,清华大学人工智能研究院院长张钹院士出席成立仪式并共同为中心揭牌。新的机构将充分落实清华大学人工智能研究院的战略,旨在:

  • 探索发展鲁棒、可解释的第三代人工智能基础理论和方法;

  • 研制第三代人工智能编程框架及基础算法库;

  • 打造开放的、国际化的学术交流与合作平台。

清华大学副校长尤政、AI 研究院院长张钹为新成立的研究中心揭牌。

清华大学是国内最早开展人工智能研究的学术机构之一,学校在 1978 年成立计算机系时就成立了相关研究机构。2018 年 6 月 28 日,清华大学成立了人工智能研究院,并由张钹院士担任院长。

「基础理论研究中心的成立,是希望能够把学校内从事基础研究的人员,包括脑科学、数学方面的人才集中到一起,从事有关人工智能的基础研究。我们希望能够研究放眼十年、二十年后的前瞻性工作。」清华大学副校长尤政在成立仪式上表示。

在发布会上,张钹院士首次提出了第三代人工智能的概念。

「我们希望能够建成开放的、世界一流的人工智能人才培养高地。」张钹院士表示,「基础理论中心的基本任务是建立和解释鲁棒的人工智能可理解算法。我们把它称为第三代人工智能理论和算法。」

在张钹院士看来,以符号推理模型为基础的知识驱动的方法可以被认为是第一代人工智能。其发展以 1994 年爱德华·费根鲍姆与拉吉·瑞迪因大规模人工智能系统而获得图灵奖宣告结束。自此之后,人工智能陷入了一段低潮时期。

第二代以概率统计学习、深度学习为基础的数据驱动方法在第一代 AI 的发展后期逐渐兴起,进入高潮时期则是本世纪开始。目前,以机器学习深度学习为主的 AI 大发展处于前所未有的兴盛时期。然而,今天的 AI 目前仍然面临着很多问题,距离人们想象当中的「智能体」还有一段距离。

「自 2014 年开始,我们就在思考人工智能的未来发展。」张钹表示。「我们考虑了人工智能的局限性,提出了后深度学习时代的概念。我们认为未来人工智能将进入第三个阶段。」

人们已经意识到人工智能正存在巨大的局限性,它能够解决的问题非常有限。第一代、第二代人工智能只能解决如下条件的问题:存在丰富知识,具有确定性、完全信息、在确定领域中,以静态或按照确定领域演化的问题。

目前的图像识别等问题符合以上条件,进而发展出了大量应用。但现实世界中我们面临的绝大多数问题基本都不符合以上条件,比如近期 AI 最大的挑战自动驾驶。数据不可解释性让人们无法信任机器学习人工智能带来的结果。

第二代人工智能还存在着极其致命的弱点:不可解释性、鲁棒性很差、非常容易被攻击。这都是清华 AI 基础理论研究中心想要解决的问题。而今年刚刚成立的 AI 科技公司「瑞来智慧」则会探索新技术的产业落地问题。

在清华大学看来,现在人们眼中的人工智能几乎全是机器学习,但机器学习只是 AI 领域中的很小一部分。人工智能还有知识表述、不确定性推理等很大一部分领域有待开发。或许在未来,人工智能的发展方向将出现很大转变。

朱军教授被聘为基础研究中心主任。

据清华大学介绍,新的研究中心主要有两个战略:

  • 学科交叉——为了人工智能的发展,新技术要结合脑科学和数学的基础知识。

  • 国际化——引领人工智能领域的发展,吸引全球优秀人才。

基础研究的发展从来不是一个国家所能承担的。中国想要引领人工智能领域的发展,就必须吸引全球的优秀人才。当然首先,自身的研究必须成为世界一流水平。张钹院士认为,目前国内的发展趋势还是不错的:「在机器学习这个特定领域里,我们排在国际前列。当然,从人工智能全局的视角来看的,我们和美国还有很大的差距。」

AI 基础理论研究中心等机构的成立,可能意味着人工智能的探索进入了一个全新的阶段。自 2017 年开始,美国 DARPA(国防部高级研究计划局)也在不断推进类似工作。

张钹表示,基础研究中心目前已完成了一些早期的工作,珠算平台就是其中的重要部分之一,珠算可以认为是第三代人工智能算法的探索。它具备可解释性,提高了算法的鲁棒性,还有很多防御攻击的工作。深度学习贝叶斯网络结合等方面,国内是世界最早进入方向的国家之一,目前已有很多研究成果。

在 2017 年的机器之心 GMIS 大会上,朱军教授正式发布了「珠算」平台。今天,这一工具包发布了最新版本。

朱军分享了「珠算」的最新进展。

朱军表示,新版本的珠算具备改进的模型构建语言,并加入了模型复用的机制。在算法上,新版本的珠算(0.4 版)支持了一些推理算法,包括随机梯度马尔科夫链蒙特卡洛,适用于数据量较大的情况。

珠算还加入了更多的模型实例,主题模型概率矩阵分解变分自编码器、贝叶斯神经网络、深度信念网络以及高斯过程。开发者和研究者们可以在这个平台上可以使用已有的实现模型,并在它们的基础上开发新的模型。

清华大学希望把研究中心建立成为世界一流的研究院,并为全球研究者提供宽松的研究环境。在成立仪式上,朱军还向我们透露了清华 AI 研究院未来的进一步计划:清华大学未来希望每年在校内开办人工智能高端学术会议,会议将完全对外开放。

而在校内,基础理论研究中心会与其他机构,甚至其他院系共同合作,共同培养博士生。

「只要对前沿创新有帮助的方式,我们都会尝试。」朱军表示。「基础理论研究的进展很难预料,一旦出现进展可能会是突破性、爆发性的。」

产业张钹朱军清华大学
相关数据
朱军人物

朱军,清华大学计算机系长聘副教授、卡内基梅隆大学兼职教授。2001 到 2009 年获清华大学计算机学士和博士学位,之后在卡内基梅隆大学做博士后,2011 年回清华任教。主要从事人工智能基础理论、高效算法及相关应用研究,在国际重要期刊与会议发表学术论文百余篇。担任人工智能顶级杂志 IEEE TPAMI 和 AI 的编委、《自动化学报》编委,担任机器学习国际大会 ICML2014 地区联合主席, ICML (2014-2018)、NIPS (2013, 2015, 2018)、UAI (2014-2018)、IJCAI(2015,2017)、AAAI(2016-2018)等国际会议的领域主席。获 CCF 自然科学一等奖、CCF 青年科学家奖、国家优秀青年基金、中创软件人才奖、北京市优秀青年人才奖等,入选国家「万人计划」青年拔尖人才、MIT TR35 中国区先锋者、IEEE Intelligent Systems 杂志评选的「AI's 10 to Watch」(人工智能青年十杰)、及清华大学 221 基础研究人才计划。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

变分自编码器技术

变分自编码器可用于对先验数据分布进行建模。从名字上就可以看出,它包括两部分:编码器和解码器。编码器将数据分布的高级特征映射到数据的低级表征,低级表征叫作本征向量(latent vector)。解码器吸收数据的低级表征,然后输出同样数据的高级表征。变分编码器是自动编码器的升级版本,其结构跟自动编码器是类似的,也由编码器和解码器构成。在自动编码器中,需要输入一张图片,然后将一张图片编码之后得到一个隐含向量,这比原始方法的随机取一个随机噪声更好,因为这包含着原图片的信息,然后隐含向量解码得到与原图片对应的照片。但是这样其实并不能任意生成图片,因为没有办法自己去构造隐藏向量,所以它需要通过一张图片输入编码才知道得到的隐含向量是什么,这时就可以通过变分自动编码器来解决这个问题。解决办法就是在编码过程给它增加一些限制,迫使其生成的隐含向量能够粗略的遵循一个标准正态分布,这就是其与一般的自动编码器最大的不同。这样生成一张新图片就比较容易,只需要给它一个标准正态分布的随机隐含向量,这样通过解码器就能够生成想要的图片,而不需要给它一张原始图片先编码。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

概率矩阵分解技术

许多现有的协同滤波算法既不能处理非常大的数据集,也不能轻松处理那些有很少数据的用户。通过使用概率矩阵分解(PMF)模型,可以在大型、稀疏且不平衡的数据集上有很好的表现。以用户-项目评分矩阵为例,矩阵分解就是预测出评分矩阵中的缺失值,然后根据预测值以某种方式向用户推荐。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

高斯过程技术

贝叶斯网络技术

贝叶斯网络(Bayesian network),又称信念网络或是有向无环图模型,是一种概率图型模型。例如,贝叶斯网络可以代表疾病和症状之间的概率关系。 鉴于症状,网络可用于计算各种疾病存在的概率。

主题模型技术

主题模型(Topic Model)在机器学习和自然语言处理等领域是用来在一系列文档中发现抽象主题的一种统计模型。直观来讲,如果一篇文章有一个中心思想,那么一些特定词语会更频繁的出现。比方说,如果一篇文章是在讲狗的,那“狗”和“骨头”等词出现的频率会高些。如果一篇文章是在讲猫的,那“猫”和“鱼”等词出现的频率会高些。而有些词例如“这个”、“和”大概在两篇文章中出现的频率会大致相等。但真实的情况是,一篇文章通常包含多种主题,而且每个主题所占比例各不相同。因此,如果一篇文章10%和猫有关,90%和狗有关,那么和狗相关的关键字出现的次数大概会是和猫相关的关键字出现次数的9倍。一个主题模型试图用数学框架来体现文档的这种特点。主题模型自动分析每个文档,统计文档内的词语,根据统计的信息来断定当前文档含有哪些主题,以及每个主题所占的比例各为多少。

推荐文章
暂无评论
暂无评论~