到目前为止,我已经看到使用 conv transpose 在网络中进行升级(例如在 DCGAN 论文中)。
现在我正在阅读 Nvidia 的一篇新文章(越来越多的 GAN,请参阅https://arxiv.org/abs/1710.10196),他们使用 tf.tile 来“升级”,之后他们使用常规卷积(相同的填充) .
我在哪里可以阅读更多关于 Nvidia 研究人员方法的信息?这两种方法之间的权衡是什么?
到目前为止,我已经看到使用 conv transpose 在网络中进行升级(例如在 DCGAN 论文中)。
现在我正在阅读 Nvidia 的一篇新文章(越来越多的 GAN,请参阅https://arxiv.org/abs/1710.10196),他们使用 tf.tile 来“升级”,之后他们使用常规卷积(相同的填充) .
我在哪里可以阅读更多关于 Nvidia 研究人员方法的信息?这两种方法之间的权衡是什么?
我会推荐这篇 Distill 文章,它更详细地讨论了使用“反卷积”层与“高档 + 普通卷积”。
特别是后者似乎在生成的图像中引入了较少的伪影。