张倩、杜伟报道

「一键脱衣」之后,弗吉尼亚州将deepfake滥用列入非法范畴

美国弗吉尼亚州新「色情报复法」规定,未经当事人允许分享他人的裸露视频、照片属于违法行为,用于「胁迫、骚扰或恐吓」将被定为一级轻罪(Class 1 misdemeanor),无论该照片或视频是真实的还是伪造的。

前段时间,一款名为「DeepNude」的「一键脱衣」APP 在社交网络上火了一把。顾名思义,这款 APP 的功能非常简单:输入一张女性照片,该 APP 即可借助神经网络自动「脱掉」女性身上的衣服,从而展现其裸体。也就是说,任何拥有你的照片的人都可以将其转换为裸照。

该 APP 在上线几个小时即告下架,但下架的原因竟然是:流量太高……

这款 APP 也是 deepfake 的一种变体,后者常被用来给视频或照片中的人物换脸,制作指定人物的色情视频、图像或名人假视频,给相关群体(尤其是女性)带来了很大的伤害和困扰。DeepNude 的出现更是将这一技术的负面影响展现得淋漓尽致。

那么,这种技术的滥用是否合法?立法部门真的会允许该技术继续游走在灰色地带?

终于,美国弗吉尼亚州采取了行动。

最近,该州扩大了其「色情报复法」(revenge porn law)的范畴,将 deepfake 也包含在内,修正后的法律于当地时间 7 月 1 日生效。

这项扩大后的法律规定:未经当事人允许分享他人的裸露视频、照片属于违法行为,用于「胁迫、骚扰或恐吓」将被定为一级轻罪(Class 1 misdemeanor)。无论该照片或视频是真实的还是伪造的。除了 deepfake,用 photoshop 或其他工具制作的虚假照片、视频也包含在内。

其实,早在 2014 年,弗吉尼亚州就制定了这项「色情报复法」,但当时仅涵盖伪造的图像、视频。

所谓「色情报复」,是指在未经当事人允许的情况下,将那些被认为仍属私密的,与伴侣亲热的照片放到网上公开,常见于情侣分手后的互撕行为。

与之前的「报复」行为不同,deepfake 制作者的动机可能要更加普遍,他们可能只是因为好玩、刺激或博眼球而去制作虚假照片视频并将其传播到网上,因此危害也可能更大。

这项技术的发展速度之快让立法者措手不及。在纳入法律之前,deepfake 的受害者通常没有追索权,而且照片上传之后很难删除。

美国女星斯嘉丽·约翰逊也是 deepfake 的受害者之一,她表示:「每个国家在保护公民肖像权方面有自己的法律法规,因此即使你能够清除美国网站上的相关内容,可能也无法清除德国网站上的内容。即使你的图像版权属于你,同样的版权法在国外未必可行。我对此非常难过。

面对来势汹汹的 deepfake,立法者反应不一。

纽约州民主党议员 Yvette Clarke 于 6 月份提出了《Deepfakes Accountability Act》。该法案将把合成媒体内容作为真实视频或图像进行播放或分享的行为认定为违法。

这项联邦法案覆盖范围更广,主要针对模拟真人的伪造视频和图像。根据法案要求,任何模拟他人创建合成媒体内容的人都必须使用「不可移除的数字水印和文字描述」,表明该合成媒介内容是经过修改或者人为创建的。此外,该法案还赋予受害者起诉创建者和/或在法庭上「捍卫自身名誉」的权利。

无独有偶,为应对日益猖獗的数字通信滥用和侵权,英国政府也正在审查一项法案,该法案专门针对那些制作和分享非自愿性亲密照片的行为。

参考链接:https://techcrunch.com/2019/07/01/deepfake-revenge-porn-is-now-illegal-in-virginia/

入门弗吉尼亚州DeepFakes
相关数据
神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

推荐文章
暂无评论
暂无评论~