斯坦福AI实验室换帅!Christopher Manning接替李飞飞

今天,斯坦福 AI 实验室(SAIL)在官方 Twitter 上表示 Christopher Manning 成为新的负责人,而前一任负责人李飞飞负责「以人为中心的 AI 计划」。

看过斯坦福 CS224n 的读者可能对 Manning 比较熟悉,他在公开课上介绍了非常多的自然语言处理方法与概念。而了解过斯坦福 CS231n 的读者对李飞飞也不陌生,她主导这一计算机视觉课程的设计。这两门公开课(2017)是了解自然语言处理计算机视觉领域必不可缺的资源,而现在关注 NLP 的 Christopher Manning 成为 SAIL 新的负责人。

斯坦福人工智能实验室官方 Twitter。

机器之心曾介绍过 Manning 眼中的语言之美,而随着 BERT 等预训练方法的流行,NLP 领域会出现更多的新进展。因此 Manning 会带领实验室在 AI 领域,尤其是自然语言处理领域作出更多的贡献。此外,斯坦福人工智能实验室发布的推文表示李飞飞作为 HAI 的联合负责人推动这一新项目,并重点关注 AI 研究、教育、政策和实践,以惠及全人类。

斯坦福人工智能实验室(SAIL)

全球顶级的人工智能研究机构之一 SAIL 由人工智能之父、Lisp 语言发明者约翰·麦肯锡于 1962 年创立。该实验室拥有多个领域的专家,涉及机器人技术、计算机视觉机器学习图像处理自然语言处理等多个领域。

Manning 和李飞飞都为实验室作出了非常多的贡献,并且 SAIL 近期在学术界获得了多项荣誉,包括 IJCAI 2018 计算机与思想奖,以及多个学术会议的最佳论文奖,包括 COLT 2018、ACL 2018、SGP 2018 以及 NIPS 2017。此外,这个月 18 号,SAIL 还推出了新的技术博客,介绍实验室最新的研究和思考。

博客主页:https://ai.stanford.edu/blog/about/

2017 年 11 月,SAIL 还和京东发布了 AI 联合研究计划(SAIL-JD AI Research Initiative)。当时他们已经启动第一批项目,包括机器人、对话系统、建模场景识别、知识图谱与应用等。

来看看有哪些你熟悉的大牛:

图源:http://ai.stanford.edu/wp-content/uploads/2011/07/SU_AI-Lab_BrochureUpdate_R8.3_LowRes.pdf。该文档介绍了 SAIL 在各领域的重要研究成果。

Christopher Manning

SAIL 新任负责人 Christopher Manning 于 1989 年在澳大利亚国立大学取得三个学士学位(数学、计算机和语言学),并于 1994 年获得斯坦福大学语言学博士学位。

他曾先后在卡内基梅隆大学、悉尼大学等任教,1999 年回到母校斯坦福,就职于计算机科学和语言学系,是斯坦福自然语言处理组(Stanford NLP Group)的创始成员及负责人。重返斯坦福之后,他一待就是 19 年。

Manning 的研究目标是以智能的方式实现人类语言的处理、理解及生成,研究领域包括树形 RNN 、情感分析、基于神经网络的依存句法分析、神经机器翻译和深度语言理解等,是一位 NLP 领域的深度学习开拓者。他是国际计算机学会 (ACM)、国际人工智协会(AAAI)、国际计算语言学会(ACL)等国际权威学术组织的 Fellow,曾获 ACL、EMNLP、COLING、CHI 等国际顶会最佳论文奖,著有《统计自然语言处理基础》、《信息检索导论》等自然语言处理著名教材。

个人主页:https://nlp.stanford.edu/manning/

李飞飞近期动态

今年 6 月,外界就有传闻称李飞飞即将从谷歌离职。9 月,这一消息得到证实:李飞飞重回斯坦福任教,同时仍担任谷歌云的 AI/ML 顾问,而她原本的职位则由 CMU 计算机学院院长 Andrew Moore 接任,后者将于今年底离任 CMU 计算机学院院长一职,全职加入谷歌。外界的传言虽然得到了证实,但作为少有的人工智能华人女科学家,李飞飞本身就颇具话题度,关于她重返斯坦福之后的动作,大家纷纷拭目以待。

俗话说新官上任三把火,虽说李飞飞对斯坦福来说不是什么「新官」,但毕竟离开斯坦福已有两年之久。因此,10 月,即李飞飞重返斯坦福之后的第二个月,她就烧起了自己的第一把火——开启「以人为中心的 AI 计划」,并担任联合负责人。该项目来势汹汹,阵容强大,目前成员包括:斯坦福大学政治学教授 Rob Reich、斯坦福大学生物医学信息学和生物医学信息科学副教授 Nigam Shah、斯坦福大学历史系 John L. Hinds 教授 Londa Schiebinger、斯坦福大学计算机科学和语言学系教授 Chris Manning 和斯坦福大学心血管医学、遗传学和生物医学数据科学教授 Euan A. Ashley。

11 月,李飞飞又有了新动向。今日,斯坦福 AI 实验室(SAIL)推特表示,李飞飞将不再担任 SAIL 负责人,这一职位将由 Manning 负责,李飞飞担任新项目——「以人为中心的 AI 计划」的联合负责人。正如其名,「以人为中心的 AI 计划」旨在把人置于人工智能的中心。它将致力于支持跨学科研究的广度,促进学界、业界、政府和群众之间的对话,也就是一种以人为中心的人工智能。它创立的初衷在于,人工智能带来的回报和风险是等同的,AI 需要有人负责去引导,也要是人文主义的。而李飞飞即将全身心投入去做这件事,不再对 SAIL 负责。这不由令人想起一件事,在她宣布「以人为中心的 AI 计划」之后,李开复对她评价道:李飞飞是 AI 的良心。

在 Manning 带领下,斯坦福 AI 实验室将走出一条怎样的道路?让我们拭目以待!

入门Christopher Manning李飞飞斯坦福大学
1
相关数据
李飞飞人物

李飞飞,斯坦福大学计算机科学系教授,斯坦福视觉实验室负责人,斯坦福大学人工智能实验室(SAIL)前负责人。专业领域是计算机视觉和认知神经科学。2016年11月李飞飞加入谷歌,担任谷歌云AI/ML首席科学家。2018年9月,返回斯坦福任教,现为谷歌云AI/ML顾问。10月20日斯坦福大学「以人为中心的AI计划」开启,李飞飞担任联合负责人。11月20日李飞飞不再担任SAIL负责人,Christopher Manning接任该职位。

统计自然语言处理技术

基于概率统计领域的理论进行自然语言处理, see NLP

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

基于Transformer 的双向编码器表征技术

BERT是谷歌发布的基于双向 Transformer的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各种NLP任务,并刷新了 11 项 NLP 任务的当前最优性能记录。BERT的全称是基于Transformer的双向编码器表征,其中“双向”表示模型在处理某一个词时,它能同时利用前面的词和后面的词两部分信息。

信息检索技术

信息检索(IR)是基于用于查询检索信息的任务。流行的信息检索模型包括布尔模型、向量空间模型、概率模型和语言模型。信息检索最典型和最常见的应用是搜索引擎。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

神经机器翻译技术

2013 年,Nal Kalchbrenner 和 Phil Blunsom 提出了一种用于机器翻译的新型端到端编码器-解码器结构 [4]。该模型可以使用卷积神经网络(CNN)将给定的一段源文本编码成一个连续的向量,然后再使用循环神经网络(RNN)作为解码器将该状态向量转换成目标语言。他们的研究成果可以说是神经机器翻译(NMT)的诞生;神经机器翻译是一种使用深度学习神经网络获取自然语言之间的映射关系的方法。NMT 的非线性映射不同于线性的 SMT 模型,而且是使用了连接编码器和解码器的状态向量来描述语义的等价关系。此外,RNN 应该还能得到无限长句子背后的信息,从而解决所谓的「长距离重新排序(long distance reordering)」问题。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

知识图谱技术

知识图谱本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。知识图谱是关系的最有效的表示方式。通俗地讲,知识图谱就是把所有不同种类的信息(Heterogeneous Information)连接在一起而得到的一个关系网络。知识图谱提供了从“关系”的角度去分析问题的能力。 知识图谱这个概念最早由Google提出,主要是用来优化现有的搜索引擎。不同于基于关键词搜索的传统搜索引擎,知识图谱可用来更好地查询复杂的关联信息,从语义层面理解用户意图,改进搜索质量。比如在Google的搜索框里输入Bill Gates的时候,搜索结果页面的右侧还会出现Bill Gates相关的信息比如出生年月,家庭情况等等。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

对话系统技术

对话系统大致被分成两类: 任务为导向的对话系统,帮助用户去完成特定任务,比如找商品,订住宿,订餐厅等。实现任务为导向的对话系统,主要有两类方式,流水线方法和端到端方法。非任务导向的对话系统,与用户进行互动并提供回答,简单的说,就是在开放领域的闲聊。实现非任务导向对话系统也主要可分为两类,生成方法和基于检索的方法。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

推荐文章
暂无评论
暂无评论~