Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

赵志冰作者

青年科研工作者眼中的ICML 2018

7月的瑞典斯德哥尔摩比北京凉爽许多,10日-15日,机器学习领域顶级会议ICML在这座美丽精致的小城召开,AAMAS 2018和IJCAI 2018也先后在同一会场举行。

本届ICML的注册人数达到了5000余人,是ICML 2017的两倍以上。大会共收到投稿2473篇,比去年增长了45%,其中621篇被接收。来自神经网络结构和强化学习两个子领域的投稿数量最多,强化学习领域的接受率更高,其它热门方向还有深度学习、在线学习、统计学习、隐私安全等等。

ICML 2018概况

ICML 2018论文子领域统计

对于有志于向ICML投稿的读者,我建议大家关注大会的反驳环节(rebuttal)。本次ICML的反驳环节促成了45%的审稿意见变更,最有利于提升审稿分数的关键词包括“深度”、“包括”、“澄清”、“建议”、“更新”、“有建设性的”、“有用的”、“有价值的”、“感谢”等等。如果把这些词连起来会变成如下的一句话:感谢您有用的建设性建议以及无价的有深度的问题。如果我们有测试我们估计结果的空间,我们会澄清我们的观测,并且更新最终的附录。这当然只是一个玩笑,但从中可以看出,我们在向审稿人提出反驳意见的时候一定要保持礼貌和理性

获奖论文

本次会议评选出了两篇最佳论文(Best Paper Awards),它们分别是

  1. Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples

    这篇文章发现obfuscated gradients并不能完全抵御对抗样本的攻击。对抗样本的问题近年来得到越来越多的关注,我比较看好这个方向。还没确定自己研究课题的读者可以考虑加入这个方向。

    论文链接:https://arxiv.org/pdf/1802.00420.pdf

  2. Delayed Impact of Fair Machine Learning

    这篇文章分析了不同的公平标准对人的延迟影响。研究发现常见的公平标准一般不能对人群产生正面影响,甚至有时候会产生负面的影响。

    论文链接:https://arxiv.org/pdf/1803.04383.pdf

会议也评选出了一篇时间检验奖(Test of Time Award),获奖论文为发表于ICML 2008的“A Unified Architecture for Natural Language Processing: Deep Neural Networks with Multitask Learning”,目前已经被引用约2500次。如果你的研究方向目前比较冷门,请保持耐心,十年之后这个奖项可能就属于你:)。

论文链接:

https://ronan.collobert.com/pub/matos/2008_nlp_icml.pdf

教程:深度学习的理论理解

下面介绍一下本次会议上发表的我比较感兴趣的一个教程。这个教程是关于深度学习的理论理解(Toward Theoretical Understanding of Deep Learning),来自普林斯顿大学的Sanjeev Arora教授。虽然主题是理论,但教程更多的是对理论发展的科普,重点放在对深度学习的直观理解上,所以对一些不喜欢读理论的读者也比较友好。

教程首先介绍了深度学习的发展简史和一些基本知识,并且指出研究深度学习理论的目的是让我们对深度学习有更直观的理解,从而产生新的发现。

然后教程对深度学习领域的一些实际问题进行了讨论。比如,目前大部分深度神经网络的优化问题都是非凸的,有些问题甚至NP-hard,维度的诅咒(curse of dimensionality)会让问题尤其复杂。传统的机器学习认为模型越简单,参数越少,泛化(generalization)就会越好,否则会发生过拟合(overfitting)。但是,深度学习的实验发现,随着模型复杂度的增加,明显的过拟合并没有发生。而且,一些近期的研究发现,过参数化(overparameterization)反而会让优化变得容易,这种现象目前还没有得到理论上的解释。

一个更加实际的问题是我们该如何选取网络的深度。直观上来说,越深的神经网络,表达力越强,但训练越困难。而最近的一个研究发现,增加神经网络的深度能够加快优化(注:笔者对这个结论持保留意见,因为文章里的实验结果只能表明,增加深度可以用更少的循环达到相同的效果,而没有比较每一个循环运行的时间。所以此处的“加快”应该更准确的理解为“用更少的循环次数”)。

该教程还讨论了生成对抗网络和文本编码等深度学习领域的热门话题。有兴趣的读者可以阅读教程原文:

http://unsupervised.cs.princeton.edu/deeplearningtutorial.html

边缘似然估计进行排序

接下来介绍一下我在ICML 2018发表的文章 “随机效用模型的边缘似然估计”。

随机效用模型是一个经典的离散选项模型。给定一个选项集,随机效用模型会认为每一个选项都对应着一个效用分布。一个选项对于不同人的效用独立服从于这个效用分布。每个人对于不同选项的偏好取决于他从每个效用分布中抽取的效用。

在一些场景下,为了实现更好的集体决策,我们需要根据人们对于一个选项集中不同选项的偏好来估计每一个选项的效用分布。例如下图的场景:Judy、Nick和Ben想要选一个吃饭的地方,他们对备选选项有不同的偏好,比如Judy最喜欢veggie grill,其次是dunkin’s donuts, 最后是哈根达斯。我们可以根据这三个人的偏好来估计出一个随机效用模型,然后根据估计的参数(即每个选项的效用分布)来帮他们选择一个餐馆。

然而,随机效用模型在一般情况下(比如所有效用分布都是高斯分布)的参数估计比较困难,因为这种模型定义的排序的概率没有已知的解析表达式。因此,我们舍弃了传统的极大似然估计方法,用极大边缘似然估计方法取而代之。

我们以每一对选项的比较结果作为边缘事件,通过极大化边缘概率的方法达到参数估计的目的。我们还可以在不同对选项的比较上加上不同的权重,以达到更好的区分某一对或者某几对选项的目的。

最后,实验证明这种方法的好处有如下几点:

  • 灵活。边缘事件和每对选项的权重都有无限的选取方式,这为我们服务不同的目的提供了可能性。

  • 快。我们提供的算法只需要读取一次数据。我们证明了目标函数是严格的凸函数,极大的增大了优化的效率。这一点也得到了实验的证明。

  • 准确。实验显示,我们的方法对高斯随机效用模型的估计比之前的广义矩估计更准确(均方差更小)。

想要了解更多详情,可以阅读论文或者通过个人主页联系我。

论文链接:

http://proceedings.mlr.press/v80/zhao18d/zhao18d.pdf

个人主页:

http://homepages.rpi.edu/~zhaoz6/

此外,在本次ICML上,微软亚洲研究院机器学习组也发表了两篇文章,感兴趣的读者可以点击以下链接了解详情:

小结

纵观本次会议,大部分工作免不了是在已有的框架之下做一些改进和提升,而这种提升常常十分有限。如何跳出已有框架做出开创性工作,是我们每个青年科研工作者应该思考的问题。这种工作虽然难,但也并非无章可循,比如对抗生成网络(GAN)有效地结合了博弈论神经网络。神级科学家可以闭门造车,一般的科研工作者至少可以做到广泛涉猎,并且融会贯通。机会总是光顾有准备的人,脚踏实地地学习创新,说不定我们的工作就会成为下一个焦点。

微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

理论ICML 2018
1
相关数据
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

高斯分布技术

正态分布是一个非常常见的连续概率分布。由于中心极限定理(Central Limit Theorem)的广泛应用,正态分布在统计学上非常重要。中心极限定理表明,由一组独立同分布,并且具有有限的数学期望和方差的随机变量X1,X2,X3,...Xn构成的平均随机变量Y近似的服从正态分布当n趋近于无穷。另外众多物理计量是由许多独立随机过程的和构成,因而往往也具有正态分布。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

非定常多项式技术

非定常多项式(英语:non-deterministic polynomial,缩写:NP)时间复杂性类,或称非确定性多项式时间复杂性类,包含了可以在多项式时间内,对一个判定性算法问题的实例,一个给定的解是否正确的算法问题。 NP是计算复杂性理论中最重要的复杂性类之一。它包含复杂性类P,即在多项式时间内可以验证一个算法问题的实例是否有解的算法问题的集合;同时,它也包含NP完全问题,即在NP中“最难”的问题。计算复杂性理论的中心问题,P/NP问题即是判断对任意的NP完全问题,是否有有效的算法,或者NP与P是否相等。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

目标函数技术

目标函数f(x)就是用设计变量来表示的所追求的目标形式,所以目标函数就是设计变量的函数,是一个标量。从工程意义讲,目标函数是系统的性能标准,比如,一个结构的最轻重量、最低造价、最合理形式;一件产品的最短生产时间、最小能量消耗;一个实验的最佳配方等等,建立目标函数的过程就是寻找设计变量与目标的关系的过程,目标函数和设计变量的关系可用曲线、曲面或超曲面表示。

过拟合技术

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

博弈论技术

博弈论,又译为对策论,或者赛局理论,应用数学的一个分支,1944年冯·诺伊曼与奥斯卡·摩根斯特恩合著《博弈论与经济行为》,标志着现代系统博弈理论的的初步形成,因此他被称为“博弈论之父”。博弈论被认为是20世纪经济学最伟大的成果之一

对抗样本技术

对抗样本是一类被设计来混淆机器学习器的样本,它们看上去与真实样本的几乎相同(无法用肉眼分辨),但其中噪声的加入却会导致机器学习模型做出错误的分类判断。

生成对抗网络技术

生成对抗网络是一种无监督学习方法,是一种通过用对抗网络来训练生成模型的架构。它由两个网络组成:用来拟合数据分布的生成网络G,和用来判断输入是否“真实”的判别网络D。在训练过程中,生成网络-G通过接受一个随机的噪声来尽量模仿训练集中的真实图片去“欺骗”D,而D则尽可能的分辨真实数据和生成网络的输出,从而形成两个网络的博弈过程。理想的情况下,博弈的结果会得到一个可以“以假乱真”的生成模型。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~