Kardel的希尔伯特空间


浅度辍学集大成者 the man who masters shallow dropout


DeLiGAN: 对于多样性和有限数据的GAN

开始遨游CVPR2017,主要是为了学习更多的深度学习网络架构

讲道理计算机视觉的深度学习架构是深度学习各领域比较先进的,比如CNN,自编码器,GAN,注意力机制都是出于CV然后应用于其他领域的。所以即使我不学CV了还是要看CVPR的论文

论文本身

DeLiGAN

  1. 讨论一下GAN的缺点:

  2. Mode Collapse:当GAN无法达到识别网络D每趟的运行次数大于生成网络G的时候,生成网络生成的所有内容都将归于同样的对象,比如训练GAN for MNIST最后所有的生成内容都为1

  3. 训练速度慢,训练吃数据:原始GAN的生成网络与识别网络都是MLP(不是很懂为什么)。较CNN来说,MLP更吃数据而且运行速度更慢

  4. GAN生成数据的多样性来自于GAN的生成者输入的噪音N。原始GAN的噪音是高斯噪音。而这篇文章主要的重点,笔者认为在于尝试去用一个有点想Batch Normalization的方式去学习噪声输入strcutureGAN

图右就是DeLiGAN的结构。可以看到,DeLiGAN在输入的时候进行了变化。

DeLiGAN使输入噪音通过一个高斯混合模型(Mixture-of-Gaussian model)

$$p_z(z) = \sum_{i=1}^N\phi_ig(z|\mu_i, \Sigma)​$$

其中$\phi_i$是权值,也是采用重参数单元(我使用的是指的是$g(z|\mu_i, \Sigma)$ )的概率。在文章中$\phi$ 使用的是uniform概率,即原公式变为

$p_z(z) = \sum_{i=1}^N\frac{g(z|\mu_i, \Sigma)}{N}$

我们随机的从N个重参数单元中选取一个,每一个选取概率相同

假设第$i$个单元被选择。我们将输入重新定义为

$z = \mu_i+\sigma_i \epsilon where \epsilon \sim N(0, 1)$

将其代入GAN的模型,可以将原模型变为:

$p_{data}(G(z))=\sum_{i=1}^N\int\frac{p_{data}(G(\mu_i+\sigma_i\epsilon |\epsilon))p(\epsilon)d\epsilon}{N}$

其中$\mu$ 和$\sigma$ 都是应该学习的参数

3.学习$\mu$与$\sigma$

notice:作者说明为什么不试着在单元的地方使用权值参数:因为无法正常训练,无法得到权值的梯度

由于$p_{data}(G(z))$在$\mu_i$处有局部最小值,所以当G优化$\sigma$ 的时候,$\sigma$可以小于0。为了避免这个,我们尝试在GAN网络 基础上用L2正则化

$max_GV_G(D, G)=min_G\mathbb{E}_{z\sim p_z}[log(1-D(G(z)))]+\lambda\sum_{i=1}^N\frac{(1-\sigma_i)^2}{N}$

  1. 实验

这个论文实验最有意思的地方在于他对不同的数据库用不同的架构differentArc

可以看出,他用了Inceptive的结构,这对于某些网络结构有非常好的效果。

result

从h-m中看出,效果大概比GAN好(j-m是它定义的一些架构,就不描述了)

  1. 我的想法

我觉得……还行吧,暂时没有运行过。整体比较玄学,并没有解释为什么这个设计好与好在哪,我只能说输入从普通的高斯噪音变成了加强版的高斯输出

我认为单元的设计有点像Dropout + ensemble。

我懂为什么对多样性有帮助,但是并不是很懂对limited data有什么帮助

Newer Post

Pix2pix:基于条件对抗网络图对图翻译

Pix2pix:基于条件对抗网络图对图翻译我现在正在研究GAN,GAN也正是我的兴趣方向之一。 本篇要讲的是pix2pix,讲道理,那个网页版我可以玩一年 Pix2pix官网 pix2pix论文 Pix2pix的github (注:原代码是用torch写的,但是作者也在官网提供了tensorflow …

深度学习, 计算机视觉, 论文解析 继续阅读
Older Post

神经网络实践经验(4)

前言地铁上无聊码的,思路比较凌乱 现代神经网络的目标 我认为,现代神经网络的目标只有两个 过拟合与欠拟合的调试 internal covariance shift过拟合和欠拟合的调试 神经网络的过拟合与欠拟合一直是个恒古不变的话题 如何能够防止神经网络产生没意义的特征工程和做出有意义的特 …

深度学习, 神经网络实践经验 继续阅读