Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器之心编辑部报道

Deepfake恶搞政客遭加州立法禁止,首份全球调查结果出炉

Deepfake 换脸视频的病毒式传播引发了美国政坛的警惕。近日,加州通过了一项旨在阻止「Deepfake」伪造视频影响大选的法令,引发了人们对于言论自由的担忧。与此同时,荷兰的一家网络安全公司发布了首份 deepfake 全球调查报告。结果显示,目前的 deepfake 视频 96% 仍为色情内容。

上周,美国加州州长 Gavin Newsom 签署了 AB 730 法令,禁止会对大选造成影响的「deepfake」视频。

法令链接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB730

该法令规定,如果散布的信息使公众对政治人物的言论、行动产生错误或有害的印象,这种散布行为将属于犯罪行为。该法令适用于选举期 60 天内的所有候选人,范围包括音频和视频内容,但也有一些例外,如新闻媒体制作的讽刺、戏仿视频。自己打上「虚假」标签的虚假视频和音频也不受此法令限制。该法令将于 2023 年废止。

虽然「deepfake」一词并未出现在法令中,但该法令明显针对的是篡改作品。该法案定义了「具有实质欺骗性质的音频和视频媒体」,以故意操纵候选人的外观、言论和行为,使表达内容与原本情况出现根本的不同。

这项有关选举的法令引起了人们对于言论自由的关注,加州美国公民自由联盟(American Civil Liberties Union of California)等组织已经开始质疑该法令的价值。「起草者的初衷是好的,但该法令解决不了政治人物的虚假视频问题,」该组织表示,「它只会带来选民的困惑、恶意诉讼和对言论自由的压制。」

此前,美国弗吉尼亚州也出台过关于禁止 deepfake 滥用的禁令。今年 7 月,该州的新「色情报复法」规定,未经当事人允许分享他人的裸露视频、照片属于违法行为,用于「胁迫、骚扰或恐吓」将被定为一级轻罪(Class 1 misdemeanor),无论该照片或视频是真实的还是伪造的。但此次加州的颁布的这项禁令针对的是大选中的政治人物,显示了美国政府对于 deepfake 扰乱政坛的警惕。

领英上一位名为 Katie Jones 的女子,她拥有由一批专家和政客组成的关系网。但经调查,此人并不存在,只是潜伏在领英上的政治间谍。

Deepfake 目前已经发展到了什么程度?主要有哪些用途?为了解答这些问题,荷兰的一家网络安全公司展开了一项调查,并公布了首份 deepfake 全球报告。

首份全球 Deepfake 调查结果出炉

色情内容才是 deepfake 的重灾区

现在想要制作一个 Deepfake 视频有多简单?10 月 7 日,荷兰网络安全公司 Deeptrace 公布了其对于目前整个互联网情况审核的报告。自 2017 年以来,deepfake 等技术一直活跃在网络中,这项技术首先是被 Reddit 用户 u/deepfakes 提出的——他利用人工智能算法的换脸技术首先将女明星的脸嫁接到色情影片中。

近年来,人们出于对 deepfake 在其他情况下滥用的担忧,对这项技术进行了大量的讨论,并不时引发政府部门的制裁。此前一款名为 Deepnude 的 APP 就曾被勒令下架。

调查认为,Deepfake 对人们造成的困扰大多出在色情视频方面,而在其他领域的实际影响其实还很小,经常被视作低科技的操作方式。最著名的例子就是美国众议院民主党领袖佩洛西的「醉酒」视频。

自 2018 年 12 月至 2019 年 7 月,网络上的 deepfake 视频数量翻了一番,并且 96%都是有关色情的,这些内容的浏览量超过了 1.34 亿。

而且,值得注意的是,所有的色情视频都以女性为对象。

波士顿大学法学教授 Danielle Citron 表示,deefake 正在被用作针对女性的武器:

deepfae 技术将女性的面孔换到色情片中,以此来作为对付她们的武器。这种现象令人恐惧、尴尬而且在无声中进行,制作者品行卑劣。deepfake 色情视频告诉人们,他们的身体不属于自己,这将使得他们很难在网上立足、找工作或获得安全感。


美国女星斯嘉丽约翰逊也是 deepfake 的受害者之一,她曾表示,「我来说这种努力是无用、没有结果的,但是对于那些因此可能丢掉工作的人来说就不同了。

代码有门槛,但普通人也有办法

大多数媒体对 deepfakes 的报道主要聚焦于顶级学术实验室制作的高度逼真且无缝衔接的视频。但 Deeptrace 对此不感兴趣,因为制作这些视频的研究者通常将底层代码进行加密处理。所以,如果有人想要制作 deepfake 视频用于色情、敲诈勒索或政治狂欢等,则必须在开放网络中找到有效工具。Deeptrace 想要知道这些人可以找到哪些可用的工具。

世界上大多数非专业 deepfakes 上运行的代码可以在 Github 的 8 个资源库中找到(这些都是 deepfakes 的原始代码),这些资源库在 Github 上非常受欢迎。

但是,对于普通人而言,这些代码使用起来非常困难,并且需要大量的数据、调整和时间,因而令大多数业余者望而却步。但他们还有其他的选择:20 个 deepfake 创建社区和论坛,并借助于少量应用程序和服务的链接来制作 deepfakes 视频。这些应用程序和服务的可用性各不相同,并且大多数需要 250 张「目标」图像来训练网络。

这些应用程序的输出质量暂且不谈,但值得注意的是,所有的 deepfake 色情网络都有广告,意味着有利可图。另外,这些网络和服务的数量虽少,但呈现不断增加趋势。

身体互换更加危险

加州大学伯克利分校的合成内容专家 Hany Farid 表示,虽然这份报告没有多少令人惊讶的内容,但「对于我们了解 deepfake 的总体发展情况非常有价值。」纽约州立大学布法罗分校的数字取证研究员 Lyu 表示,这份报告汇集了研究人员已知的许多事实,对于立法者非常有用。

「如果你想让政策制定者和法律分析人士知道如何解决这一问题,那么你先要知道 deepfake 是做什么用的,」纽约大学从事类似研究的学者 Garg 表示。

「目前的 deepfake 视频集中于换脸,这也是一条有用信息,」Lyu 表示,「这可以将危害控制在一定程度上。」因为换脸现在还不够令人信服。在相信这些视频是真的之前,人们总是会先怀疑一下,Garg 表示。

Lyu 还表示,现在大部分的视频还只是换脸,而且不够令人信服,真正的危险是身体的互换。这种「木偶大师」式的 deepfake 会劫持人的整个身体,编码者可以根据自己的意愿使它们动起来。Lyu 和其他研究者已经开发了能够做到这一点的代码,而且使用的是 GAN 之外的一种编码器。

但所有人都相信,身体互换迟早会商业化。Lyu 和 Garg 表示,下一步的调查应该由大学主导、经过同行评审,而不是由私有公司出资。「这将成为国家科学基金的一个好项目」,Lyu 表示。

参考内容:

https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB730

https://deeptracelabs.com/resources/

https://spectrum.ieee.org/tech-talk/computing/software/the-worlds-first-audit-of-deepfake-videos-and-tools-on-the-open-web

产业DeepFakes全球调查报告
3
暂无评论
暂无评论~