虚假名人三级片给你暗爽的同时,社会信用体系也可能崩塌

编译 | 白悦、侯韵楚、王艺

来源 | Motherboard

作者 | Samantha Cole


去年 12 月,Reddit 上一名叫做「deepfakes」的博主被媒体疯狂人肉。原因很简单,这位博主当时正沉迷于自己的一个小爱好中不能自拔——将名人的脸换到色情片演员身上。


神奇女侠盖尔·加朵、「权力的游戏」中二丫的扮演者麦茜·威廉姆斯、以及霉霉泰勒·斯威夫特纷纷中招。这些以假乱真的名人色情片均为这位博主利用业余时间在家用电脑上鼓捣出来的,其背后的技术正是机器学习算法。


媒体大肆报道过后,情况一发不可收拾,越来越多的人通过机器学习伪造名人色情片,伪造质量也越来越高。Reddit 上甚至有另一位博主专门为没有计算机背景的人设计了一款工具,使得色情片伪造技术门槛进一步降低。这款工具不仅免费,还提供新手操作指导。


此前,有专家通过媒体向社会发声,呼吁警惕事态发展,没想到这一天这么快就来了。


两个月前,就在「deepfakes」被人肉后不久,他开通了一个以自己名字命名的 Reddit 专栏继续展示其合成的伪色情片,并迅速吸引了逾 15000 名用户。在 Reddit 社区内,「deepfakes」已经成为神经网络合成假视频的代名词。


另一个名为「deepfakeapp」的用户创建了一个简单可用的应用程序 FakeApp。通过这款 APP,任何人都可以用自己手中的数据伪造色情视频。


利用 FakeApp,星战女主黛西·雷德利的脸被移植到三级片视频中


该 APP 基于「deepfakes」的算法,但并没有借助「deepfakes」的帮助。外媒 Motherborad 私信了「deepfakes」,但他并没有对这个利用他发明的算法创造新 APP 的行为给出评价。


「deepfakeapp」通过 Reddit 告诉 Motherboard,他之所以创建 FakeApp,是想让没有技术背景或编程经验的人也可以使用「deepfakes」的技术。


「我认为这款 APP 当前的版本是个好的开始,我希望用接下来几天或几周的时间对它进行简化,」他说,「最终,我想让用户能够仅通过一段本地录像以及从云端下载的一个关于特定面孔的神经网络就能一键生成假视频,将网络中的特定面孔移植到本地录像中。」


今年一月初,在「deepfakes」的事迹第一次火了之后,Motherboard 记者给电子前哨基金会(Electronic Frontier Foundation)的首席计算机科学家 Peter Eckersley 打了个电话,探讨这个技术的应用对整个社会的影响。


「我认为,这一事件处于风口浪尖的根本原因在于,它的门槛被降得很低,并且能够被广泛复制,」他还补充道,以假乱真的效果在当前的技术水平下其实是很难实现的,「你可以使用神经网络伪造视频,但观众一眼就能看出来,这涉及到很尖端的技术,在一两年内不会有大的突破。」


令人吃惊的是,仅仅两个月这个技术就被大家攻破了。我们统计了数十名正在借助 AI 伪造色情视频的用户,其中几个用户伪造的视频十分逼真。

 

Reddit 用户「UnobtrusiveBot」使用 FakeApp 将好莱坞女星杰西卡·阿尔芭的脸贴在色情表演者 Melanie Rios 的身上。并在 FakeAPP 的评论中写道:「超级快!只需要学习如何重新训练模型,大约 5 个小时就能得到你想要的。」




「deepfakes」在自己的专栏中发布的伪视频已经在其他网站上被当作真视频在传播了。一个经常窃取名人隐私照片及视频的名人色情网站 CelebJihad 上传了「deepfakes」制造的一个艾玛·沃特森正在洗澡的视频,并附文「这是我个人收藏的独家视频,里面有艾玛·沃特森和另一个女孩洗澡时的全裸体和炫耀性器官的画面」。


其他的 Reddit 用户使用名人在 Instagram 上发布的视频片段对神经网络进行训练,将素人发在 Snapchat 上的裸体视频进行了换脸。一个将神盾局特工中的女演员汪可盈的脸进行了如上处理的「deepfakes」制作者写道:「我很庆幸这个 Snapchat 素人的视频和汪可盈偶尔在 Instagram 上发布的视频很相似,都有愚蠢的舞步和表情。」


目前「deepfakes」上的大多数帖子都是色情片,但另外一些用户创作的视频显示了这项技术可能带给社会的深远影响,即只要你有足够多的原始数据,那么你可以将任意面孔放在任意视频中。一位名为「Z3ROCOOL22」的用户便将希特勒的脸放在了阿根廷总统 Mauricio Macri 的一段视频中。


根据「deepfakeapp」所言,只要拥有 1-2 个目标面孔的高质量视频,任何一位能够下载并运行 Fakeapp 的用户都可以制作这样的视频。


在维基百科词条中,FakeApp 被描述为「无需安装 Python、Tensorflow 等便能运行 deepfakes 算法的社区开发型桌面应用程序」,并且其运行仅需要「具有 CUDA(NVIDIA 的并行计算平台和编程模型)支持的高性能 GPU(高端 3D 视频游戏必需的图形处理器)。」倘若用户没有合适的 GPU,也可以通过如谷歌云等云端服务租用 GPU。


如果进展顺利,从数据提取到逐帧人脸转换这一整个过程大致需要 8-12 小时。也有一些用户反映需要更长的时间,有时还会转换失败。


一位名为「MrDrPresidentNotSure」的用户在他效果极差的人脸转换视频中写道:「谨以此被搞砸的视频,向所有经过尝试却以失败告终的人致敬。」


名为「yu78156853」的用户在尝试 FakeApp 失败后写道:「为什么结果会如此差劲,是我训练时间不够吗?」


与上两位相比,这位对星球大战中的莉亚公主进行换脸的「deepfakes」用户创造的作品效果拔群。他表示,FakeApp 与好莱坞大片的镜头有非常大的相似之处,至少在低分辨率下是这样的。



「上面是来自星球大战的原镜头,由于其表演者凯丽·费雪已经身故,因此该镜头使用了 CGI(数字再现技术)重现凯丽·费雪,需花费两亿美金,而且还需要找到一个长相酷似凯丽·费雪的女演员参演。


而下面是使用「deepfakes」技术生成的一段时长 20 分钟的假视频,我的预算是 0 美金以及一支 Fleetwood Mac 乐队的曲子。」


「deepfakeapp」的创造者表示,「我希望在未来几年内,像这样的机器学习工具能更为普及,并能为不懂技术的人们提供新的机会,利用这种高科技的数字化操作技术进行探索和创造,而这种技术目前仅被资金充足的特效公司所掌握。」


这是一个操作异常简单的应用程序,但它能制作的色情、暴力、政治演讲等多方面的虚假视频多到超乎想象。这个应用程序的发展将对消费媒体以及整个社会造成影响。


一方面,开源神经网络的研究将愈发强大;另一方面,我们从虚假新闻中辨明真相的能力将愈发退化,加之目前我们传播新闻的方式多为通过难以监管的社交媒体,这三者的结合将带来严重后果。


视频分析平台 Pulsar 的数字媒体分析师兼研究总监 Jay Owens 在一封邮件中向 Motherboard 记者表示:「假视频在社交和文化层面将呈现入侵式的繁殖状态。由于社交网络的娱乐属性,病毒性的名人视频将变得更有色情意味、更具交易性,也会迎来空前的虚假。」


弗吉尼亚大学工程学院应用伦理学的名誉教授 Deborah Johnson 告诉 Motherboard 记者,这项技术在将来无疑会完美到无法区分视频究竟是真实的,还是人工智能通过人脸转换生成的。


她说道:「你可能会认为,这项技术的创新点在于它能对视频进行换脸并且做到空前的逼真。但实际上,其可怕之处在于社会上每个人都能够应用这项技术。或者说,它正让世界变得不稳定,整个社会的商业及信用体系都将随之崩塌。」


文章来源:https://motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley

产业
暂无评论
暂无评论~