生成式深度学习
对于生成式模型的记录
生成式深度学习
记录学习书籍《生成式深度学习》
- 生成模型从概率模型的角度描述了生成数据集的方法。
- 图像生成问题中,特征通常就是每个像素的值。
- 模型生成成功条件:
- 该模型生成的采样看上去好像是从原数据集提取的结果
- 该模型生成的采样于是简单复制已有的数据点
- 参数化建模->似然估计->最大似然估计
- 深度学习如何处理特征之间的高度条件依赖、如何在高维样本空间中找到令人满意的数据
- 表示学习核心思想,不直接对高维样本空间建模,而是通过低维隐空间来描述训练集的每个预测,然后学习一个映射函数,将隐空间映射到原始域。隐空间中的每个点都是某个高维图像的表示
- 结构化数据例如表格、非结构化数据例如图像、视频
- VAE 将高维输入数据压缩成低维表征向量的编码器以及通过解压将给定的表征向量还原到原始域的解码器神经网络
- 自动编码器中每个图像都直接映射成隐空间的一点,变分自动编码器每个图像都映射成隐空间中围绕某个点的多元正态分布
- VAE 隐空间是一个连续的空间
- 上采样+Conv2D以及Conv2DTranspose 区别在于上采样不会用零填充像素之间的间隙
- GAN 面临损失震荡(收敛不稳定)、模式收缩(输出单一化)、不提供信息的损失函数(判别器不断进化,损失函数不能横向对比)
- WGAN(Wasseerstein)优化过程的稳定性、与生成器的熟练度和样本质量相关的有意义的损失度量。修改损失函数
- GAN 中有一点很重要,不要让判别器过强,以免梯度消失。如何平衡判别器与生成器的训练很关键。WGAN一般生成器两次更新之间训练5次判别器
- WGAN-GP 修改了损失函数,不裁剪评论者的权重