CMU新研究试图统一深度生成模型:搭建GAN和VAE之间的桥梁

不同的深度生成模型之间存在怎样的共性?近日,来自 CMU 和 Petuum 的四位研究者 Zhiting Hu、Zichao Yang、Ruslan Salakhutdinov 和邢波在 arXiv 上发表了一篇论文介绍了他们的研究成果,即构建了 GAN 和 VAE 深度生成建模方法之间的形式联系。


论文:关于统一深度生成模型(On Unifying Deep Generative Models)


论文地址:https://arxiv.org/abs/1706.00550




摘要


深度生成模型(deep generative model)近来年已经取得了令人瞩目的成功。其中,生成对抗网络(GAN)和变分自编码器(VAE)这两种强大的深度生成模型学习框架被普遍认为是两种不同的范式,并且分别都得到了广泛的独立研究。本论文通过对 GAN 和 VAE 的一种新的形式化(formulation)而构建了深度生成建模方法之间的形式联系(formal connections)。我们表明,GAN 和 VAE 本质上是分别在相反的方向上使用相反的隐含/可见处理(reversed latent/visible treatments)来最小化 KL 距离,从而延展典型的 wake-sleep 算法的两个学习阶段。这个统一的视角能提供一种强大的工具,可用于分析各种现有的模型变体,而且可以使得我们以一种基于原理的方式跨研究方向地交换思想。比如说,我们可以将 VAE 文献中的重要性加权(importance weighting)方法迁移用于提升 GAN 学习,也可使用对抗机制来增强 VAE。定量实验表明了这种导入的扩展(imported extensions)的通用性和有效性。


3 搭建不同方法之间的桥梁


在 GAN 中,生成模型的训练方式是通过将生成的样本传递到一个鉴别器,并最小化由该鉴别器所评估得到的误差。直观来看,学习上对于假样本的依赖类似于 wake-sleep 算法中的睡眠阶段(sleep phase)。相反,VAE 通过重构被观察的真实样本来训练其生成模型,这与清醒阶段(wake phase)相似。这一节对这些联系进行了形式化的探索。


为了便于本论文的呈现和构建符号标记方法,我们首先使用我们提出的形式化对对抗域适应(ADA/Adversarial Domain Adaptation)进行了新的解释。然后我们表明 GAN 是 ADA 的一种带有退化的源域(degenerated source domain)的特例,我们还通过对目标(objective)的 KL 距离解释而揭示了其与 VAE 和 wake-sleep 算法的紧密关系。表 1 列出了这些方法中每个组件的对应关系。



表 1:在我们提出的形式化方法中,不同方法之间的对应关系


  • 3.1 对抗域适应(ADA)
  • 3.2 生成对抗网络(GAN)
  • 3.3 变分自编码器(VAE)
  • 3.4 Wake-Sleep 算法(WS)


4 应用


我们通过我们提出的形式化而建立了 GAN 和 VAE 之间的紧密对应关系,这不仅能让我们更加深入地理解现有的方法,而且还能让我们从这两大类算法的交织中汲取灵感,从而开发出更强的变体。在这一节,我们通过直接从其它方法导入思想,给出了 GAN 和 VAE 各自的扩展示例。


  • 4.1 重要性加权的生成对抗网络(IWGAN/Importance Weighted GANs)
  • 4.2 对手激活的变分自编码器(AAVAE/Adversary Activated VAEs)


5 实验



表 2:左:vanilla GAN 及其重要性加权的扩展的 Inception 分数。中:class-conditional GAN 及其 IW 扩展的生成的分类准确度。右:半监督 VAE 及其对手激活的变体在 MNIST 测试集上的分类准确度,使用了不同大小的真实标注的训练样本。



图 1:在 MNIST 测试集上的下限值。X 轴表示用于学习的训练数据的比例(0.01、0.1 和 1)。Y 轴表示下限值。实线表示基础模型;虚线表示对手激活的模型。左:VAE vs. AA-VAE;中:CVAE vs. AA-CVAE;右:SVAE vs. AA-SVAE,其中剩余的训练数据被用作无监督数据。


本文由机器之心编译出品,原文来自arXiv,作者Zhiting Hu等人,转载请查看要求,机器之心对于违规侵权者保有法律追诉权。

理论
登录后评论
暂无评论
暂无评论~
返回顶部