我已经深入研究了 gans 并且还在 pytorch 中实现了它,现在我正在研究 gans 背后的核心统计数据,当我在查看该网站时, 它表示Gans 数学
“Loss(G) = - Loss(D),请注意,我们将生成器成本定义为鉴别器成本的负值。这是因为我们没有明确的方法来评估生成器的成本。”
但是在实现 gan 时,我们将生成器的损失定义为:
Bintropy 生成器生成的图像的鉴别器输出和真实标签之间的交叉熵损失,如原始论文和以下代码(由我实现和测试)
# train generator
z_ = to.randn(minibatch,100 ).view(-1, 100, 1, 1)
z_ = Variable(z_.cuda())
gen_images = generator(z_)
D_fake_decisions = discriminator(gen_images).squeeze()
G_loss = criterion(D_fake_decisions,real_labels)
discriminator.zero_grad()
generator.zero_grad()
G_loss.backward()
opt_Gen.step()
请解释一下两者之间的区别,以及正确的一个
代码链接:https ://github.com/mabdullahrafique/Gan_with_Pytorch/blob/master/DCGan_mnist.ipynb
谢谢