Gary Marcus作者Geek AI、路雪编译Medium选自

Marcus再怼深度学习:不和符号计算相结合,可能无法进步!

纽约大学心理学与神经科学教授 Gary Marcus 在批判深度学习的路上走了很远。今年年初,Marcus 发表了一篇长文对深度学习的现状及局限性进行了批判性探讨。在文中,Marcus 表示:我们必须走出深度学习,这样才能迎来真正的通用人工智能。近日 Yoshua Bengio 发表论文认为「当前的深度学习方法在学习合成性语言时,样本效率存在不足」。Marcus 认为「英雄所见终于略同」,深度学习社区终于有人意识到这一问题了。他在 Medium 上撰文介绍了语言神经网络模型的前世今生,并认为深度学习应该与经典人工智能技术(符号计算)相结合,才能实现新进展。


过去

长期以来,许多研究人员一直担心神经网络能否有效地泛化,从而捕获语言的丰富性。从 20 世纪 90 年代开始,这成为我工作的一个主要课题,在我之前,Fodor、Pylyshyn、Pinker 和 Prince 1988 年在《Cognition》中提出了与之密切相关的观点。Brenden Lake 和他的合作者在今年早些时候也提出了类似的观点。

举个例子,我在一月份写了一篇关于这个话题的文章

当可用的培训数据数量有限,或测试集与培训集有很大区别,又或者样本空间非常大且有很多全新数据时,深度学习系统的性能就不那么好了。而在现实世界的诸多约束下,有些问题根本不能被看作是分类问题。例如,开放式的自然语言理解不应该被认为是不同的大型有限句子集之间的分类器映射,而是可能无限范围的输入句子和同等规模的含义之间的映射,而这其中很多样本是之前没有遇到过的。

现在

近日,Yoshua Bengio 和他的实验室成员写了一篇与此相关的论文(http://export.arxiv.org/abs/1810.08272),证明了神经网络社区内部(认知科学研究社区的一群门外汉(包括我自己))长期以来的观点:如今的深度学习技术并不能真正处理语言的复杂性。

这篇论文的摘要中有一句这样的表述:

我们提出了强有力的证据,证明了当前的深度学习方法在学习一门合成性(compositional)语言时,样本效率存在不足。

这是当前机器学习文献中存在的一个非常普遍而且十分重要的问题,但之前的文献对此没有任何讨论。这并不是好现象:我们曾经用一个词来形容它——「非学术性」,意思是你按照早期先行者的方向继续研究下去,并假装你的工作是原创的。这并不是一个很好的词。但它在这里很适用。

无论如何,我很高兴 Bengio 实验室和我长期以来对此的观点一致,我在一篇 Twitter 中写道:

关于深度学习及其局限性的重要新闻:Yoshua Bengio 的实验室证实了 Marcus 在 2001 年和 2018 年提出的一个关键结论:深度学习在数据处理方面不够有效,无法应对语言的合成性本质。

和往常一样,我的言论引起了深度学习社区中许多人的反感。作为回应,Bengio 写道(他第二天在 Facebook 上发布了一条帖子,这引起了我的注意):

这里的结论似乎有些混乱。根据实验,我们发现目前的深度学习+强化学习在学习理解合成语言的样本复杂度方面还不尽如人意。但这与 Gary 的结论大不相同,因为我们相信我们可以继续取得进步,并在现有的深度学习强化学习的基础上进行扩展。Gary 明确地表明了「深度学习在数据处理方面不够有效,无法应对语言的合成性本质」这样的负面观点,而我们认为当前的深度学习技术可以被增强,从而更好地应对合成性,这是我们进行(向具有相同底层因果机制的新数据分布)系统泛化所必需的。这正是我们正在进行的研究,相关的论述可以在 arXiv 上查看我们之前的论文。

实际上,Bengio 说的是我们还没有达到所需要的水平。

也许是这样,也许不是。或许深度学习本身永远无法做到真正处理语言的复杂性。我们至少要考虑到存在这种可能。

20 年前,我基于反向传播的工作原理非常严谨地首次提出该观点(http://www.psych.nyu.edu/gary/marcusArticles/marcus%201998%20cogpsych.pdf)。然后立即出现了很多关于未知机制和未来的成功的承诺。

这些承诺至今仍未兑现。我们用了 20 年的时间以及数十亿美元进行研究后,深度学习在语言的合成性方面仍然没有取得任何显著进展。

在过去 20 年里唯一真正改变的是:神经网络社区终于开始注意到这个问题。

未来

实际上 Bengio 和我在很多方面都有共识。我们都认为现有的模型不会成功。我们都同意深度学习必须要被增强。

真正的问题是,增强究竟是什么意思。

Bengio 可以自由地阐述他的观点。

在我看来,正如我过去 20 年所预测的那样:深度学习必须通过一些借鉴自经典符号系统的操作得到增强,也就是说我们需要充分利用了经典人工智能技术(允许显式地表示层次结构和抽象规则)的混合模型,并将其同深度学习的优势相结合。

许多(并非所有)神经网络的支持者试图避免在他们的网络中添加这样的东西。这并不是不可能的;这是所谓的正统观念的问题。当然,仅靠深度学习目前还无法解决这个问题。也许是时候试试别的方法了。

我不认为深度学习无法在自然理解中发挥作用,只是深度学习本身并不能成功。我认为 Yann LeCun 等人一直在误导大家。

我的预测仍然是:如果没有固有的合成工具来表示规则和结构化表征(根据我在 2001 年出版的「The Algebraic Mind」一书中提出的观点),我们将看不到语言理解神经网络模型的进展。

只要深度学习社区不再毫无必要地把自己定义为经典人工智能(符号系统)的对立面,我们也许将看到进展。

原文链接:https://medium.com/@GaryMarcus/bengio-v-marcus-and-the-past-present-and-future-of-neural-network-models-of-language-b4f795ff352b

产业符号主义Yoshua BengioGary Marcus
1
相关数据
约书亚·本吉奥人物

约书亚·本希奥(法语:Yoshua Bengio,1964年-)是一位加拿大计算机科学家,因人工神经网络和深度学习领域的研究而闻名。Yoshua Bengio于1991年获得加拿大麦吉尔大学计算机科学博士学位。经过两个博士后博士后,他成为蒙特利尔大学计算机科学与运算研究系教授。他是2本书和超过200篇出版物的作者,在深度学习,复现神经网络,概率学习算法,自然语言处理和多元学习领域的研究被广泛引用。他是加拿大最受欢迎的计算机科学家之一,也是或曾经是机器学习和神经网络中顶尖期刊的副主编。

杨立昆人物

杨立昆(法语:Yann Le Cun,英语:Yann LeCun,1960年7月8日-)是一位计算机科学家,他在机器学习、计算机视觉、移动机器人和计算神经科学等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络 (CNN),他也被称为卷积网络之父。他同Léon Bottou和Patrick Haffner等人一起创建了DjVu图像压缩技术。他同Léon Bottou一起开发了Lush语言。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~