Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

深度生成模型

深度生成模型基本都是以某种方式寻找并表达(多变量)数据的概率分布。有基于无向图模型(马尔可夫模型)的联合概率分布模型,另外就是基于有向图模型(贝叶斯模型)的条件概率分布。前者的模型是构建隐含层(latent)和显示层(visible)的联合概率,然后去采样。基于有向图的则是寻找latent和visible之间的条件概率分布,也就是给定一个随机采样的隐含层,模型可以生成数据。 生成模型的训练是一个非监督过程,输入只需要无标签的数据。除了可以生成数据,还可以用于半监督的学习。比如,先利用大量无标签数据训练好模型,然后利用模型去提取数据特征(即从数据层到隐含层的编码过程),之后用数据特征结合标签去训练最终的网络模型。另一种方法是利用生成模型网络中的参数去初始化监督训练中的网络模型,当然,两个模型需要结构一致。

简介

深度生成模型基本都是以某种方式寻找并表达(多变量)数据的概率分布。有基于无向图模型(马尔可夫模型)的联合概率分布模型,另外就是基于有向图模型(贝叶斯模型)的条件概率分布。前者的模型是构建隐含层(latent)和显示层(visible)的联合概率,然后去采样。基于有向图的则是寻找latent和visible之间的条件概率分布,也就是给定一个随机采样的隐含层,模型可以生成数据。

生成模型的训练是一个非监督过程,输入只需要无标签的数据。除了可以生成数据,还可以用于半监督的学习。比如,先利用大量无标签数据训练好模型,然后利用模型去提取数据特征(即从数据层到隐含层的编码过程),之后用数据特征结合标签去训练最终的网络模型。另一种方法是利用生成模型网络中的参数去初始化监督训练中的网络模型,当然,两个模型需要结构一致。

由于实际中,更多的数据是无标签的,因此非监督和半监督学习非常重要,生成模型也非常重要。

[描述来源:机器之心;URL:http://www.10tiao.com/html/162/201610/2650719772/4.html]

深度生成模型能学习到高层的特征表达,因此广泛应用于视觉物体识别,信息获取,分类和回归等任务。深度生成模型蕴含三个重要原则:(1)在一层中可以学习多层次的表征;(2)可以完全采用无监督学习;(3)一个单独的微调步骤可以用于进一步提高最后模型的生成或者识别效果。

[描述来源: 论文Learning deep generative models;URL:http://www.annualreviews.org/doi/pdf/10.1146/annurev-statistics-010814-020120]

具体的(深度)生成模型有:玻尔兹曼机(Boltzmann Machines),受限玻尔兹曼机Restricted Boltzmann Machines),深度信念网络(Deep Belief Networks,DBNs),深度玻尔兹曼机(Deep Boltzmann Machines,DBM),sigmoid信念网络(Sigmoid Belief Networks),可微生成器网络(Differentiable Generator Networks),变分自编码器(Variational Autoencoders,VAE),生成式对抗网络(Generative Adversarial Networks,GANs),生成矩匹配网络(Generative Moment Matching Networks),卷积生成网络(Convolutional Generative Networks),自回归网络(Auto-Regressive Networks),线性自回归网络(Linear Auto-Regressive Networks),神经自回归网络(Neural Auto-Regressive Network),神经自回归密度估计(neural auto-regressive density estimator,NADE),生成随机网络(Generative stochastic networks, or GSN)等。

[描述来源:Deep Learning Book;URL: http://www.deeplearningbook.org/contents/generative_models.html]

发展历史

描述

最早出现的生成模型是玻尔兹曼机和受限玻尔兹曼机(Boltzmann machines & RBMs)。受限玻兹曼机不仅在降维、分类、协同过滤、特征学习和主题建模中得到应用,同时 Bengio 还表明在 2006 年深度学习最开始的进程中,RBM 也可以应用于第一阶段的深度神经网络。随后在 90 年代,出现了 Helmholtz 机和 sigmoid 信念网络。Hinton于2006年提出深度信念网络(DBNs),是第一批成功应用深度架构训练的非卷积模型之一,它在MNIST数据集上表现超过内核化支持向量机,尽管现在与其他无监督或生成学习算法相比,DBNs大多已经失去了青睐并很少使用,但它们在深度学习历史中的重要作用仍应该得到承认。

除了用于分类任务之外,深度生成模型还被用于回归任务,可视物体识别,语音识别,降维,信息获取,自然语言处理,机器人等各个应用领域。2014年,Ian J. Goodfellow提出生成对抗网络(GANs)之后,又出现了基于GANs的改进结构,比如基于深度卷积网络的生成对抗模型(DCGAN)实现等。2016年,Deepmind提出了用于语音合成的深度生成网络Wavenet,其生成的语音效果更加逼真,2017年谷歌将该技术产品化。

主要事件

年份事件相关论文/Reference
1983玻尔兹曼机生成模型被提出Fahlman, S. E., Hinton, G. E., & Sejnowski, T. J. (1983). Massively parallel architectures for Al: NETL, Thistle, and Boltzmann machines. Proceedings of AAAI-83109, 113.
1992Neal提出了sigmoid 信念网络Neal, R. M. (1992). Connectionist learning of belief networks. Artificial intelligence, 56(1), 71-113.
2006Hinton提出深度信念网络Hinton, G. E., Osindero, S., & Teh, Y. W. (2006). A fast learning algorithm for deep belief nets. Neural computation, 18(7), 1527-1554.
2008采用DBNs来完成回归任务Hinton, G. E., & Salakhutdinov, R. R. (2008). Using deep belief nets to learn covariance kernels for Gaussian processes. In Advances in neural information processing systems (pp. 1249-1256).
2009将卷积深度信念网络用于可视物体识别Lee, H., Grosse, R., Ranganath, R., & Ng, A. Y. (2009, June). Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations. In Proceedings of the 26th annual international conference on machine learning (pp. 609-616). ACM.
2012DBNs应用在语音识别领域Mohamed, A. R., Dahl, G. E., & Hinton, G. (2012). Acoustic modeling using deep belief networks. IEEE Transactions on Audio, Speech, and Language Processing, 20(1), 14-22.
2014Goodfellow提出生成对抗网络Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative adversarial nets. In Advances in neural information processing systems (pp. 2672-2680).
2016Deepmind创建了一个深度生成模型Wavenet,可用来生成具有自然人声的语音。Van Den Oord, A., Dieleman, S., Zen, H., Simonyan, K., Vinyals, O., Graves, A., ... & Kavukcuoglu, K. (2016). Wavenet: A generative model for raw audio. arXiv preprint arXiv:1609.03499.

发展分析

瓶颈

-为了证明新发明的生成模型比之前存在的模型更能捕获一些分布,研究者通常需要将一个生成模型与另一个生成模型比较。但是往往不能实际评估模型下数据的对数概率,仅可以评估一个近似。 在这些情况下,重要的是思考和沟通清楚正在测量什么。

-评估生成模型的评估指标往往是自身困难的研究问题,可能很难确定模型是否被公平比较。

-因为预处理的变化,会导致生成式建模的不同,甚至非常小和微妙的变化也是完全不可接受的。 对输入数据的任何更改都会改变要捕获的分布,并从根本上改变任务。

-因为从数据分布生成真实样本是生成模型的目标之一,所以实践者通常通过视觉检查样本来评估生成模型。 在最好的情况下,这不是由研究人员本身,而是由不知道样品来源的实验受试者完成,这可能会造成非常差的概率模型产生非常好的样本的结果。

-由于样本的视觉质量不是可靠的标准,所以当计算可行时,通常还评估模型分配给测试数据的对数似然。 但是在某些情况下,似然性似乎不可能测量我们真正关心的模型的任何属性。

未来发展方向

生成模型有许多不同的用途,因此指标的选择必须与模型的预期用途相匹配。生成式建模中最重要的研究课题之一不仅仅是如何提升生成模型,事实上还包括了设计新的技术来衡量我们的进步。

Contributor: Yueqin Li

简介