李泽南 王淑婷作者

从此再无真「相」!这些人全部是AI生成的

英伟达研究人员推出的人工智能算法 StyleGAN 可以合成足以骗过人类的假人脸。不过对于大多数人来说,这项基于生成对抗网络(GAN)的技术距离我们还很遥远。这个问题很快就被一名 Uber 工程师解决了,近日,一个名为「此人不存在」的网站悄然上线。

网站链接:https://thispersondoesnotexist.com/

虽然「他们」看起来都没有什么奇怪之处,但这就是问题所在:这些人都不存在。图片来自 ThisPersonDoesNotExist.com 网站。

AI 产生虚假视觉效果的能力目前似乎还不是主流,但这个网站的出现让「有图有真相」变成了过去式。结合昨天 OpenAI 提出的通用语言模型 GPT-2,我们或许可以制造一个完全虚假的记者,报道虚假的新闻,然后骗过所有人。

ThisPersonDoesNotExist 网站的创建者是 Philip Wang,他是一位来自 Uber 的软件工程师。他利用英伟达去年发布的研究成果创作了源源不断的假人像。其背后的算法是在一个巨大的真实图像数据集上训练的,然后用 GAN 来生成新的例子,即假脸。

「每次你刷新这个网站,网络就会从头开始生成新的人脸图像。」Philip Wang 在其 Facebook 中写道。他在 Motherboard 上的一份声明中补充道:「很多人都不知道未来 AI 合成图像的能力到底有多强。」

你能看出「她」其实是假的吗?

SyleGAN

支持该网站的基本 AI 框架是著名的生成对抗网络 GAN,最初是由谷歌大脑科学家 Ian Goodfellow 等人在 2014 年发明的。英伟达采用的 StyleGAN 最近已经开源,并被证明非常灵活。

StyleGAN 官方开源地址:https://github.com/NVlabs/stylegan

虽然当前版本的模型是被训练用来生成人脸图像的,但理论上来说它可以模仿任何来源的图像。研究人员已经在尝试其它目标:有人用它来生成新字体,有人用它来制造二次元老婆,当然用 StlyeGAN 来吸电子猫的也大有人在。

在默认情况下,SyleGAN 训练 1024×1024 分辨率的图片需要使用 8 块 GPU 训练接近一个星期,研究人员在说明文档中劝告所有使用者:使用较少 GPU 可能无法达到最佳效果。他们还列出了使用英伟达 Tesla V100 GPU 对不同分辨率的图像进行训练所需的时间以供参考。

这么高的硬件需求看起来令人望而却步,却并没有挡住众多技术人员的好奇心,这个 GitHub 很快就收获了 2600 多个 star,越来越多的 AI 作品也出现在社交网络上。

很多用户在使用二次元妹子头像训练 StlyeGAN,从而生成大量此前从未出现的动漫形象。

具体来说,如果使用包含 300 余万张图片、9000 万标签的动漫图像数据集 Danbooru2018 进行训练的话,数据集是这样:

训练结果:

由于 Danbooru2018 数据集中作品的画风并不一致,人工智能这回生成的图像好像有一点诡异的艺术感……

影响

在技术人员的狂欢之下,人工智能的强大「造假」能力也引发了一些人的担忧。正如之前在 The Verge 中讨论的一样,像 StyleGAN 这样的算法非常强大,给人们带来了很多想象空间。一方面,这项技术会带来明显的创造性应用。像这样的程序可以创造无尽的虚拟世界,也可以帮助设计者和插画师。它们已经开发出了新的艺术品,比如去年的「天价」AI 画作事件:去年 11 月,佳士得拍卖行以 43.25 万美元(约 300 万人民币)的高价拍出一件人工智能艺术品。

Belamy 系列画作是对 GAN 算法开发鼻祖 Ian Goodfellow 的致敬,「bel ami」在法语中的意思即为「Good fellow」——好朋友。其作者是几位没有接受过艺术训练的 25 岁年轻人。

但这种技术也会带来一些隐患。正如我们在关于 deepfakes(该网站利用 GAN 将人们的脸粘贴到目标视频上,主要目的为了制作非自愿的色情制品)的讨论中所看到的,大规模操纵和生成现实图像的能力将对现代社会如何看待证据和信任产生巨大影响。这类软件对于政治宣传和影响运动也非常有用。

换句话说,ThisPersonDoesNotExist.com 只是对 AI 技术的一种礼貌性介绍。人们对于风险意识的建立恐怕还要慢慢形成。目前,Philip Wang 的网站使用云服务器上的 GPU 进行计算,「它每两秒钟『想象』出一张人脸,并以可扩展的方式向全世界展示。」Philip Wang 表示。「这并不花哨。」


参考内容:

工程GAN人脸生成
4
相关数据
OpenAI 机构

OpenAI是一家非营利性人工智能研究公司,旨在以惠及全人类的方式促进和发展友好的人工智能。OpenAI成立于2015年底,总部位于旧金山,旨在通过向公众开放其专利和研究与其他机构和研究人员“自由合作”。创始人的部分动机是出于对通用人工智能风险的担忧。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

生成对抗网络技术

生成对抗网络是一种无监督学习方法,是一种通过用对抗网络来训练生成模型的架构。它由两个网络组成:用来拟合数据分布的生成网络G,和用来判断输入是否“真实”的判别网络D。在训练过程中,生成网络-G通过接受一个随机的噪声来尽量模仿训练集中的真实图片去“欺骗”D,而D则尽可能的分辨真实数据和生成网络的输出,从而形成两个网络的博弈过程。理想的情况下,博弈的结果会得到一个可以“以假乱真”的生成模型。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

GPT-2技术

GPT-2是OpenAI于2019年2月发布的基于 transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。据介绍,该模型是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。在性能方面,该模型能够生产连贯的文本段落,在许多语言建模基准上取得了 SOTA 表现。而且该模型在没有任务特定训练的情况下,能够做到初步的阅读理解、机器翻译、问答和自动摘要。

推荐文章
暂无评论
暂无评论~