Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

斯坦福Christopher Manning获2024 IEEE冯诺依曼奖,曾培养陈丹琦等多位华人学生

近日,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,本年度奖项由斯坦福教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获得,获奖理由为「促进自然语言计算表示和分析方面的进展」。

图片

IEEE 约翰・冯・诺依曼奖章(IEEE John von Neumann Medal)于 1990 年设立,以著名数学家、代计算机创始人之一约翰・冯・诺依曼的名字命名,旨在表扬在计算机科学和技术领域取得突出成就的科学家。约翰・冯・诺依曼在高级研究所的工作促成了 1952 年 IAS 二进制存储程序计算机的诞生,IAS 是 IBM 第一台全电子存储程序计算机(701)的模型。

此前,已有多位知名计算机学者获得该奖项,包括戈登・贝尔、高德纳、Edwin Catmull、John Hopcroft、Michael I. Jordan 等。

图片Stanford AI Lab 社交账号祝贺 Manning 获奖

近年来,以大模型为代表的自然语言处理(NLP)技术为人工智能领域带来了新的突破。克里斯托弗・曼宁教授正是将深度学习应用于 NLP 领域的早期领军人物,在词向量 GloVe 模型、注意力、机器翻译、问题解答、自监督模型预训练、树递归神经网络、机器推理、依存解析、情感分析和总结等方面都有著名的研究。他还专注于解析、自然语言推理和多语言语言处理的计算语言学方法,目标是让计算机能够智能地处理、理解和生成人类语言。

图片

曼宁教授在澳大利亚国立大学获得学士学位,1994 年获得斯坦福大学博士学位,1999 年起执教于斯坦福大学。

他是斯坦福大学语言学系和计算机科学系机器学习专业的首任 Thomas M. Siebel 教授、斯坦福人工智能实验室(SAIL)主任以及斯坦福以人为中心人工智能研究所(HAI)副主任。2023 年,曼宁因其在计算机自然语言处理领域发挥的关键作用获得阿姆斯特丹大学荣誉博士学位。

曼宁教授与他人合著了有关 NLP 统计方法(Manning and Schütze 1999 年)和信息检索(Manning, Raghavan, and Schütze, 2008 年)的教科书,以及有关词性和复杂谓词的语言学专著。他的《统计自然语言处理基础》(Foundations of Statistical Natural Language Processing)是该领域的标准著作,也是几代学生的必读书目。他的斯坦福 CS224N 自然语言处理深度学习在线课程视频也已被数十万人观看。

在二十余年的教学生涯中,曼宁教授曾培养出许多计算机科学领域的优秀人才,其中也有来自中国的陈丹琦、王孟秋等学生。

此前,曼宁教授已入选 ACM Fellow、AAAI Fellow 和 ACL Fellow,也曾担任 ACL 前主席(2015 年)。他的研究曾获得 ACL、Colin、EMNLP 和 CHI 最佳论文奖以及 ACL 时间检验奖。

作为 NLP 知名学者,曼宁教授始终对领域内的前沿技术趋势保持关注。

2022 年,曼宁教授在美国人文与科学学院(AAAS)期刊的 AI & Society 特刊上发表题为《Human Language Understanding & Reasoning》的文章,探讨了语义、语言理解的本质,并展望了大模型的未来。

「随着 NLP 领域的技术突破,我们或许已在通用人工智能(Artificial general intelligence, AGI)方向上迈出了坚定的一步。」

在 2023 年的大模型浪潮中,曼宁也参与并发表了多项相关研究。

图片

在冯诺依曼奖之外,IEEE 同时公布了 2024 年的其余奖项,完整名单见:https://corporate-awards.ieee.org/recipients/current-recipients/#1701111060092-2b9778b5-4f7c
产业克里斯托弗・曼宁约翰・冯・诺依曼奖章IEEE
相关数据
IBM机构

是美国一家跨国科技公司及咨询公司,总部位于纽约州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM虽然是一家商业公司,但在材料、化学、物理等科学领域却也有很高的成就,利用这些学术研究为基础,发明很多产品。比较有名的IBM发明的产品包括硬盘、自动柜员机、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。

https://www.ibm.com/us-en/
相关技术
统计自然语言处理技术

基于概率统计领域的理论进行自然语言处理, see NLP

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

信息检索技术

信息检索(IR)是基于用于查询检索信息的任务。流行的信息检索模型包括布尔模型、向量空间模型、概率模型和语言模型。信息检索最典型和最常见的应用是搜索引擎。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

GloVe技术

Stanford开发的用于词向量表示的一个库/工具

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

自然语言推理技术

自然语言推理是在给定“前提”的情况下确定“假设”是真(蕴涵),假(矛盾)还是未确定(中立)的任务。

通用人工智能技术

通用人工智能(AGI)是具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。通用人工智能是一些人工智能研究的主要目标,也是科幻小说和未来研究中的共同话题。一些研究人员将通用人工智能称为强AI(strong AI)或者完全AI(full AI),或称机器具有执行通用智能行为(general intelligent action)的能力。与弱AI(weak AI)相比,强AI可以尝试执行全方位的人类认知能力。

语言学技术

每种人类语言都是知识和能力的复合体,语言的使用者能够相互交流,表达想法,假设,情感,欲望以及所有其他需要表达的事物。语言学是对这些知识体系各方面的研究:如何构建这样的知识体系,如何获取,如何在消息的制作和理解中使用它,它是如何随时间变化的?语言学家因此关注语言本质的一些特殊问题。比如: 所有人类语言都有哪些共同属性?语言如何不同,系统的差异程度如何,我们能否在差异中找到模式?孩子如何在短时间内获得如此完整的语言知识?语言随时间变化的方式有哪些,语言变化的局限性是什么?当我们产生和理解语言时,认知过程的本质是什么?语言学研究的就是这些最本质的问题。

推荐文章
暂无评论
暂无评论~