对偶生成对抗网络是一种非监督深度学习网络,可同时习得两个相对的图片转换器,例如从照片到素描和从素描到照片。这种网络并不局限于某个特定的任务,除了风格转换(如照片到素描)外,还可用于超像素、纹理合成和视频预测等。
作者受自然语言处理中的对偶学习算法的启发,同时搭建两个生成对抗网络,分别为初级生成对抗网络(primal GAN)和次级生成对抗网络(dual GAN)。两个生成对抗网络中分别含有一个生成网络(GA、GB)和一个判别网络(DA、DB)。首先以两组无标签图片数据作为输入,每组图片分别具有某个目标特征,如一组图片为真实照片V,另一组为素描U。通过GA将一张素描u转换为一张真实照片GA(u),再通过DA比较GA(u)和V得到归属损失(membership error)。然后将GA(u)输入GB得到次级生成图片,利用DB比较u和次级生成图片计算重构损失(reconstruction error)。
[内容来源:DualGAN: Unsupervised Dual Learning for Image-to-Image Translation; URL: https://arxiv.org/abs/1704.02510]
相比于传统的生成对抗网络,对偶生成对抗网络在利用生成图片计算归属损失(membership error)后,再将生成图片输入到相对的生成网络中与原图进行比较,计算重构损失(reconstruction error),以此来进行无监督的对偶学习。
[图片来源:DualGAN: Unsupervised Dual Learning for Image-to-Image Translation; URL: https://arxiv.org/abs/1704.02510]
发展历史
描述
自2014年Goodfellow等人提出生成对抗网络后,一系列GAN家族的方法被用于各种问题。最初的生成对抗网络可以通过一个对抗分辨网络来区分真实和虚假数据,从而训练得到一个生成网络,用于捕捉真实数据的分布信息。不久之后,各种条件对抗生成网络被提出,用于不同的特定任务,例如超像素、纹理合成、从地图到图片的风格转换以及视频预测等。同时,也有少数网络关注普适的处理任务,即不局限于某一特定任务。但大部分都需要大量的带标签数据对或者预训练好的函数。
2016年夏应策等人首次提出了对偶学习,用于实现英语与法语之间的双向翻译并减少对带标签数据的需求。对偶学习的中心思想是在两个对象之间建立一个对偶学习游戏,这两个对象分别只会一种语言。
2017年Zhu等人提出了循环生成对抗网络,并在一些缺少配对训练数据集的任务中表现出了优越性。对偶生成对抗网络和循环生成对抗网络都针对普适的图像到图像的转换任务,并且不需要成对的数据来连接两组图片。另外,对偶生成对抗网络可以同时训练初级和次级生成对抗网络,并从重构损失中得到有价值的回馈信号。
主要事件
年份 | 事件 | 相关论文 |
2014 | Goodfellow等人提出生成对抗网络 | Goodfellow et al.(2014).generative adversarial networks |
2014 | Mirza等人提出cGAN | M. Mirza and S. Osindero(2014). Conditional generative ad- versarial nets. |
2016 | 夏应策等人提出对偶学习,用于自然语言处理的双语翻译问题 | Xia et al.(2016).Dual learning for machine translation |
2017 | Jun-Yan Zhu等人提出CycleGAN | J. Zhu, T. Park, P. Isola, and A. A. Efros(2017). Unpaired image-to-image translation using cycle-consistent ad- versarial networks |
发展分析
未来发展方向
对偶生成对抗网络可以自动习得目标特征的分布信息,但无法从中得到单个像素与标签之间的关联信息,因此在一些需要图像语义标签的任务中,表现不如条件生成对抗网络。
【来源:DualGAN: Unsupervised Dual Learning for Image-to-Image Translation; URL: https://arxiv.org/abs/1704.02510】
未来发展方向
以少量的带标签数据“热身”,提高对偶生成对抗网络在基于图像语义标签的任务中表现更出色。
【来源:DualGAN: Unsupervised Dual Learning for Image-to-Image Translation;URL:https://arxiv.org/abs/1704.02510】
Contributor: Jianghui Wang