深扒Yann LeCun清华演讲中的深度学习与人工智能技术

姚期智先生引言:非常荣幸来给大家介绍今天的演讲嘉宾!大家一定还记得去年的一个大事件——AlphaGo在围棋上战胜了人类冠军。围棋被认为是人类智力竞赛的王冠,而AlphaGo背后的最重要的技术就是深度学习。今天的演讲嘉宾就是深度学习方面的专家LeCun。

LeCun现任Facebook AI研究院院长,同时他也是美国纽约大学的终身教授。他的研究兴趣包括机器学习、计算机视觉、移动机器人以及计算神经学等。他因著名且影响深远的卷积神经网络(CNN)相关的工作而被人称为CNN之父。

LeCun演讲梗概

LeCun演讲内容跨度数十载,从最早追溯到1957年神经科学的监督学习谈起并对神经网络的训练做了一个基本的介绍。接着Lecun重点讲解了他的成名作——卷积神经网络(CNN),还给大家展示了录制于1993年的珍贵视频——年轻的LeCun在一台486 PC上编写的光学字符识别系统。

不知那时候还在攻读博士的LeCun是否想到他的研究成果在随后的二十年给整个世界带来的巨大影响和翻天覆地的变化。然而,在当时的环境下,并不是所有的人都相信神经网络技术,更多的人倾向于一些有理论保障的机器学习方法,比如kernel machine等。

LeCun给大家展示了他在1995年所见证的两位机器学习前辈Jackel和Vapnik(当时他们都在贝尔实验室,Jackel是Vapnik的上司)的两个有趣赌局:第一个赌局中,Jackel声称最迟到2000年我们就会有一个关于大的神经网络为什么有效的理论解释,当然随后的历史证明他输了;第二个赌局中,Vapnik声称最迟到2000年没有人将会继续使用1995年的这些神经网络结构(意思是大家都会转而使用支持向量机SVM,Vapnik是SVM的发明人之一),结果Vapnik也输了。

不仅在2000年,大家依然在用,直到今天,在结合了大数据与强大计算能力后,这些古老的神经网络结构迸发出更加巨大的能量。这个深度学习史上有趣的八卦,我们如今听来却也不胜唏嘘。技术的发展往往是螺旋式且兼具跳跃性,实在难以预料。正如今天的我们在清华的大礼堂里与LeCun一起畅想着深度学习与人工智能的未来,却不知十年、二十年后我们又在哪里用什么样的视角来看待今天的自己。

技术干货

尽管未来是如此的难以预料,但科研的道路却是一步一个脚印的走出来的。LeCun接着给大家展示了一系列的技术干货,包括近几年在计算机视觉(Computer Vision)、深度学习(Deep Learning)等方面的最新进展以及颇有未来潜力的技术方向对抗学习(Adversarial Learning)。

深度卷积网络(Deep Convolutional Nets)

LeCun先向大家介绍了在各类计算机视觉任务中举足轻重的技术——深度卷积神经网络(Deep CNN)。并向大家解释为什么深度卷积网络会非常有效,因为我们假设世界(图像)是由很多很多小的部分(特征)组合而来,而当深度卷积网络作用于图像时,随着深度的增加会提取出更加高层次的抽象特征,而这些特征对图像的识别非常有用。原始的机器学习方式是需要人来手工设计特征,再在设计后的特征上训练分类器,而深度学习高效地自动化了特征抽取及表示这一块的工作,因此现在已经成为图像处理的主导性技术。深度学习被视为一种自动学习层级化特征表示的学习方法。

近些年,逐渐加深的深度卷积神经网络显示出了依次递增的识别效果,从VGG到GoogLeNet,再到ResNet,也印证了LeCun所说的深度卷积网络逐层抽取特征的能力。

专业用户独享

本文为机器之心深度精选内容,专业认证后即可阅读全文
开启专业认证
产业深度学习理论Yann LeCun演讲
暂无评论
暂无评论~