深度学习真的是让AI更像人类的必经之路吗?

深度学习正在为AI业界带来震荡。微软的 Eric Horvitz 与 Facebook 的 Yann LeCun 解释了为何这种机器学习会如此激动人心。

如今的人工智能热潮会最终冷却为另一个 AI 寒冬吗?该领域的两位杰出专家——Eric Horvitz 与 Yann LeCun 不这么认为。微软研究实验室 Horvitz 如此说:「人们不清楚机器智能会发展得多快。我自己也并不确定。但我认为我们很快就会有一些非常有价值的进展了。」 Horvitz 指出了两个将 AI 带到如今地位的「核心进展」。第一个是「概率革命」,也就是说,从逻辑推理到不确定推理的转变。这种发展「站在了包括统计学、运筹学以及概率决策科学的肩膀之上,」Horvitz 在《MIT 科技评论》近期举办的前沿科技大会上(EmTech)上如此说道。 然而,Horvitz 所说的第二个核心进展才是真正能够引起公司 CIO 们共鸣的那一个,他们应该意识到了科技进步所带来的 AI 振兴与大数据热潮的相似之处。他说道:「第二个正是机器学习的革命,但它的驱动力是我们对几乎无限大的数据储存能力的追求,以及互联网的普遍性和连接性所带来的巨量数据源。而这一点再加上计算能力,触发了机器学习的复兴,并由此成为了 AI 的中流砥柱。」 对 AI 中某个正热的领域来说,这一点尤其正确,这个领域就是深度学习。深度学习是一种机器学习,据一些支持者描述,它与人类处理信息的方式类似。Yann LeCun 正是这一领域的佼佼者,他是纽约大学的教授,也是 Facebook 人工智能研究的主管。他深度学习形容为一种古老的想法(可以追溯回 1950 年代),但由于技术进步正处于复兴阶段。他特别指出经过深度学习系统有效的训练和教导,机器可以处理大数据集。他还提到了图像处理单元(GPUs),「它们是高度平行的——大部分新芯片都有着 2000 个内核。」LeCun 在 EmTech 上说道。 但是深度学习也并不总是被高看一等,LeCun 比任何人都了解这一点。

神经网络的降临

在 1990 年代,LeCun 为一种叫做卷积神经网络的深度学习类型带来了浓墨重彩的一笔,这种深度学习受到了大脑视觉皮层的启发。卷积神经网络(convnets)在各层中处理数据,识别图像或文字。一开始,它在最底层的非结构化数据中识别最基本的特征,并将其传导至最高层,在那里数据被重新构筑,最终进行识别。25 年前,在AT&T 贝尔实验室工作的时候,LeCun 建立了一个神经网络,可以识别手写的数字。这种技术后来被证明非常成功。银行完善了这种技术,并用于在 ATM 机的支票存款中。 然而,卷积神经网络受到关注的时间短暂而过。「机器学习学界已经远离了它。他们并不相信这个想法有什么用。」LeCun 说道,并最终导致了他所称为的「神经网络的二次死亡」,第一次出现在 20 世纪 60 年代,当时包括 MIT 的 Marvin Minsky 在内的研究人员「展示了当时人们所用的方法的局限性」。 原来,创造一个强大的神经网络需要添加更多处理层级,但是正如Minsky所指出的那样,20 世纪 60 年代的科技还未发展到这一步。到 80 年代,研究者们仍然被技术水平所桎梏。LeCun 说:「人们过去仅仅能训练两到三个神经层,因为那是我们的机器最大的承载能力了,原因是数据库很小。如果你尝试从过少的数据中造出庞大的神经网络,效果不会很好的。」 在这样的情况下,神经网络只能死记硬背,不会得到任何有意义的结果。一个例外是 LeCun 针对手写文字的卷积神经网络,它有着五到七个神经层。但是到了 90 年代,神经网络的概念失去了支持,一同失去的还有卷积神经网络的前景。

破纪录

在今年早些时候的采访中,Facebook 的 Yann LeCun 告诉《IEEE Spectrum》的 Lee Gomes「尽管深度学习从生物学中得到了启发,但它距离真正的大脑还很遥远。把它描述为很像大脑是一种虚幻飘渺的说法,也很危险。它会导致夸大其辞;人们会说出并不正确的事情。AI 经历了许多凛冬,正是因为人们宣称了一些他们无法做到的事情。」 「人们不相信只要增加了神经层它就会起效。」他说道,「部分是因为错误的数学直觉。」 在最近五年,为神经网络添加多层(10 个或更多)已经成为了标准,显著改变了这种技术的效果,以及工业界对此的观点。在今天,「智能手机上的每一个语音识别系统都使用了深度学习」,他指出。它还极大改变了计算机视觉领域——人类视觉的机器版本。 LeCun 说:「在一年的时间内,整个图像识别的计算机视觉业界就转向了卷积网络。在我 30 年的研究生涯里,我从未见过如此风卷残云般席卷世界的科技。」

AI 的未来离不开人类的辅助

谷歌、Facebook 与其他科技大亨现在正竞相将这种技术应用于产品当中,这个领域正炙手可热。在这个故事的第二个部分,Search CIO 资深新闻作家 Nicole Laskowski 解开了 AI 专家 Yann LeCun 与 EricHorvitz的看法。 与微软、IBM 和谷歌一样,Facebook 也把手里的赌注压在了深度学习、神经网络和自然语言处理上。Facebook 在致力于加快这些机器学习类型的进步,并雇一个深度学习和神经网络的权威专家,建立自己的新人工智能实验室。与之带来便是 Facebook 的数字私人助理 M,于几个月前推出以选择用户。 今天,M 的 AI 科技由人类助理所支持,后者负责监视 M 是如何回应请求(例如带走请求与预定请求)并在需要的时候插足。根据 Wire 的一篇文章,AI-人类系统帮助 Facebook 建立了一个模型:当人类助理插足一个任务时,他们的处理会被记录下来,为 AI 系统创造有价值的数据。 一旦有了足够的正确数据,M 将会建立神经网络,而这正是 LeCun 的团队所涉及的部分。但即使 M 的 AI 发展到神经网络,人类还是将会陷入继续训练科技的循环里。

长路漫漫

这是因为 M 像大部分当代的 AI 系统一样,是一种监督学习系统,意味着系统无法自己教导自己。反之,如果LeCun 想要一个识别狗的算法,他必须要给它足够的狗相貌的样品——很多很多的样品。「你需要重复上百万次。」LeCun 在 EmTech 上说道。「但是,当然了,人类不想要这样。我们通过观察世界学习。我们发现世界是三维的,物体独立运动。我们希望机器也可以如此,但我们没有足够强大的科技支撑。」 他指出,创造一个有着人类常识的机器,对 AI 的未来是一个巨大挑战。「我们没有好的方法,但依然要解决问题,而这就是非监督式学习。」 Facebook 尝试为 AI 系统嵌入初步推理的方法是向量嵌入,非结构化数据可以以此转变为一个详细描述文本与目标的数列。LeCun 说,这个过程将知觉、推理、观点与语言能力整合在一起,如果算法碰到了不熟悉的文字与图像,它可以将未知和已知的数学描述进行比较和对比,从而进行合理的推测。关于向量嵌入在语言翻译中如何起作用,他有一个最清晰的解释是:「我们拿出两段文本,一种法语,一种英语,并找出它们是否在说一件事。」 Facebook 并不是唯一采用这种方法提升AI的公司。谷歌也在尝试用「思维向量」作为训练计算机理解语言的方式,但目前他们还无法做到。

AI 的未来

但是,理解语言距离机器能完成与人类一样的智力任务还很遥远。LeCun 说,发展一个常识项目(也就是所谓的「通用人工智能」),仍然有很长的路要走。 LeCun 说:「我们能想到的最好的训练方法就是让它们观看足够数量的录像。预测对智能来说至关重要,也是我们正在做的事情。」 科幻电影如《她》和《机器姬》会给我们带来这样的印象,AI 的未来是有意识的机器,但是 LeCun与 Horvitz 认为泛化智能是一个艰巨的任务。「我们甚至都不知道如何思考这个问题。我的确认为,在这条通往智能的道路上,经过长期的努力,我们将拥有能胜任很多工作的新机器,并且,这种能力可被看做是意识。」 Horvitz 所致力解决的障碍之一是典型的 IT 问题:AI 科技基本上是各自为政,为了让系统更加强大,它们需要结合在一起。「当我说我们试着建立一个整体比各部分之和更好的系统,我们有时候会发现我们将例如语言与视觉之类整合在一起时,能力会有大幅提升。」Horvitz(与他的妻子一起)最近在斯坦福大学推出了人工智能的百年研究,也是针对AI影响的跨学科研究。 AI究竟该如何整合仍然在有待商榷,「但是我很确定AI的下一步跨越将会来自于这些整合措施。」Horvitz 说道。破坏独立性也许不如创造有意识的机器那样带感,但是它会导向 Horvitz 所说的「智能的大交响乐」壮丽景象。 他说道:「随着每一次的前进,尤其是机器学习和深度学习的进步,我们就有了更多的工具。这些工具是非常有趣的组成部分,我们可以将之添加到旧的部分中,并见证它们是如何散发出新的光芒。  

参与:Chen Xiaoqing,汪汪。

入门深度学习人工智能
暂无评论
暂无评论~