郑璇真作者

lan Goodfellow IEEESSP最新演讲:对抗性实例安全性研究及其未来

继上周密集更新的推特小课堂后,时刻操心着大家学习的Ian Goodfellow老师又发推文给大家开小灶了!

先来回顾一下上周的推特小课堂:

昨天,Ian Goodfelow在Deep Learning and Security worshop(IEEESSP)上发表演讲,主题是对抗性实例安全性研究及其未来发展的方向。秉着“大家good才是真的good”的精神,我们的goodfellow随即在推特上给大家分享了这次演讲的PDF链接:

在这次演讲中,Goodfellow介绍了对抗性实例,即攻击者有意设计的、造成机器学习模型出错的输入。

教大家设计攻击和防御模型,并分析防线失效的原因:

他还提出了三个对抗性实例未来发展可能的方向:间接的手段、更强大的攻击模型,和独立于传统监督学习的安全性。

秉承“普及数据思维,传播数据文化,助⼒产业发展”的企业⽂化,我们专注于数据领域的资讯、案例、技术,形成了“媒体+教育+⼈才服务”的良性⽣态,致⼒于打造精准数据科学社区。

入门对抗性实例机器学习模型无监督学习
相关数据
机器学习技术
Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

监督学习技术
Supervised learning

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

推荐文章