2

我已经深入研究了 gans 并且还在 pytorch 中实现了它,现在我正在研究 gans 背后的核心统计数据,当我在查看该网站时, 它表示Gans 数学

“Loss(G) = - Loss(D),请注意,我们将生成器成本定义为鉴别器成本的负值。这是因为我们没有明确的方法来评估生成器的成本。”

但是在实现 gan 时,我们将生成器的损失定义为:

Bintropy 生成器生成的图像的鉴别器输出和真实标签之间的交叉熵损失,如原始论文和以下代码(由我实现和测试)

    # train generator
    z_ = to.randn(minibatch,100 ).view(-1, 100, 1, 1)
    z_ = Variable(z_.cuda())
    gen_images = generator(z_)

    D_fake_decisions = discriminator(gen_images).squeeze()
    G_loss = criterion(D_fake_decisions,real_labels)

    discriminator.zero_grad()
    generator.zero_grad()
    G_loss.backward()
    opt_Gen.step()

请解释一下两者之间的区别,以及正确的一个

代码链接:https ://github.com/mabdullahrafique/Gan_with_Pytorch/blob/master/DCGan_mnist.ipynb

谢谢

4

1 回答 1

5

鉴别器的工作是执行二元分类来检测真假之间,因此它的损失函数是二元交叉熵。

Generator 所做的是 Density Estimation,从噪声到真实数据,然后将其提供给 Discriminator 以欺骗它。

设计中遵循的方法是将其建模为 MinMax 游戏。现在让我们看一下成本函数:

资料来源:https://towardsdatascience.com/generation-adversarial-networks-history-and-overview-7effbb713545

有人这样解释:

J(D) 中的第一项表示将实际数据输入判别器,判别器希望最大化预测的对数概率,表明数据是真实的。第二项表示 G 生成的样本。在这里,鉴别器希望最大化预测为零的对数概率,表明数据是假的。另一方面,生成器试图最小化鉴别器正确的对数概率。这个问题的解决方案是博弈的一个平衡点,它是判别器损失的鞍点。

由于鉴别器试图最大化生成器样本为零的概率,因此生成器的工作变成最大化一个。这相当于将生成器的成本函数设为负交叉熵,其中 J(D) 中的第一项现在将保持不变。

资料来源:https ://towardsdatascience.com/generation-adversarial-networks-history-and-overview-7effbb713545

于 2018-07-12T11:35:25.043 回答