郑璇真作者

lan Goodfellow IEEESSP最新演讲:对抗性实例安全性研究及其未来

继上周密集更新的推特小课堂后,时刻操心着大家学习的Ian Goodfellow老师又发推文给大家开小灶了!

先来回顾一下上周的推特小课堂:

昨天,Ian Goodfelow在Deep Learning and Security worshop(IEEESSP)上发表演讲,主题是对抗性实例安全性研究及其未来发展的方向。秉着“大家good才是真的good”的精神,我们的goodfellow随即在推特上给大家分享了这次演讲的PDF链接:

在这次演讲中,Goodfellow介绍了对抗性实例,即攻击者有意设计的、造成机器学习模型出错的输入。

教大家设计攻击和防御模型,并分析防线失效的原因:

他还提出了三个对抗性实例未来发展可能的方向:间接的手段、更强大的攻击模型,和独立于传统监督学习的安全性。

入门
相关数据
机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

监督学习技术
Supervised learning

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

推荐文章
综述论文:对抗攻击的12种攻击方法和15种防御方法
机器之心5
既能欺骗机器,也能迷惑人类!Goodfellow等人提出新一代对抗样本
路雪
Google Brain与OpenAI合作论文:规模化的对抗机器学习
李亚洲
返回顶部