问题标签 [stylegan]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 尝试运行 StyleGAN2 生成命令时出现“ValueError: too many values to unpack (expected 3)”
尝试在 Google Colab 中使用 Derrick Schultz 的存储库进行 StyleGAN2 神经训练时出现此错误https://github.com/dvschultz/ai/blob/master/StyleGAN2_Colab_Train.ipynb
命令是:
之前的一切都按照教程中的方式完成,但使用的是我自己的数据集。但后来我得到:
此代码应该按原样工作,但事实并非如此。不幸的是,我自己不是编码员。这里需要改变什么?
python - StyleGAN2“您的会话在使用所有可用 RAM 后崩溃”在 Google Colab 培训开始时
当我开始训练我的 StyleGAN2 模型时,Google Colab 崩溃,在勾选 0 之后。出现错误“您的会话在使用所有可用 RAM 后崩溃”。
我正在使用 StyleGAN2 的一个分支,其中增加了对非方形图像的支持。数据集由非常小(640x384)的 jpg 图像组成。但是,其中有 12,195 个。tfrecords 文件的大小为 1.47 GB。训练命令是:
我想知道在更改某些参数后,是否有办法在 Colab 中继续使用此数据集。
deep-learning - Lambda 在这段代码中做了什么(python keras)?
请看上面的代码。我目前正在学习 styleGAN。我正在尝试将此代码转换为 pytorch,但我似乎无法理解 Lambda 在 g_block 中的作用。AdaIN 只需要一个基于其声明的输入,但有些如何 gamma 和 beta 也用作输入?请告诉我 Lambda 在这段代码中做了什么。
非常感谢。
python - 训练 StyleGan2 网络时出现 OutOfRangeError
我在使用StyleGAN2 存储库训练我的第一个网络时遇到了很多问题,在更改为较小的 GPU 批量大小 2 后,因为我只有 11GB 的 VRAM 可用,训练在返回这些之前设法通过 1-4 个滴答声超出范围错误。
锐龙 3950x
RTX 2080ti
32GB DDR4 RAM
Windows 10
Tensorflow-gpu 1.4
neural-network - StyleGAN 生成图像中的伪影
我已经编写了自己的 StyleGAN 实现(此处为https://arxiv.org/abs/1812.04948的论文),使用 PyTorch 而不是官方实现使用的 Tensorflow。我这样做部分是作为从头开始实施科学论文的练习。
我已尽力重现论文中和它所基于的 ProgressiveGAN 论文中提到的所有特征,以及网络训练,但我总是得到模糊的图像和斑点状的伪影:
我非常想知道是否有任何具有 GAN 或特别是 StyleGAN 经验的人看到过这种现象,并且可以让我深入了解其可能的原因。
(一些细节:我正在对下采样的 CelebA 图像进行训练,600k 图像老化,600k 图像淡入,但我看到非常相似的现象与一个很小的玩具数据集和更少的迭代。)
tensorflow - 尺寸必须等于误差,但它们是相等的
我在“discriminator_loss”函数中添加了一个打印,以查看发生了什么。起初它会告诉我两者的形状都是 16。后来它告诉我“real_loss”的形状只有 15,而另一个保持 16。到目前为止,我只尝试降低批量大小并将它们增加 1 等。我提供了代码中最相关的部分。如果需要,我可以提供其余代码。我不知道为什么会发生这种情况并且它会破坏代码。
错误和回溯
tensorflow - rtx 3090 上的 Tensorflow 1.14 性能问题
我在 4x RTX 3090 上运行使用 TensorFlow 1.x 编写的模型,与1x RTX 3090 相比,启动训练需要很长时间。尽管随着训练的开始,它在 4x 中比在 1x 中更早完成. 我在两个 GPU 中都使用了 CUDA 11.1 和 TensorFlow 1.14。
其次,当我使用 1x RTX 2080ti、CUDA 10.2 和 TensorFlow 1.14 时,与 1x RTX 3090 和 11.1 CUDA 和 Tensorflow 1.14 相比,开始训练所需的时间更少。暂定,在 1x RTX 2080ti 中需要 5 分钟,在 1x RTX 3090 中需要 30-35 分钟,在 4x RTX 3090 中需要 1.5 小时来开始对其中一个数据集的训练。
如果有人可以帮助我解决此问题,我将不胜感激。
我在 2080ti 和 3090 机器上使用 Ubuntu 16.04、Core™ i9-10980XE CPU 和 32 GB 内存。
编辑:根据this ,我发现TF在Ampere架构GPU中的启动时间很长,但我仍然不清楚是否是这种情况;并且,如果是这种情况,是否存在任何解决方案?
tensorflow - StyleGAN2-ada,运行时运行,但 epoch 保持为零
我在Colab 运行时运行它......但即使我等待超过 5 个小时,epoch 也不会上升。有什么问题要查吗??
结果文件夹中只有第一个结果 (000000),5 小时后没有任何反应。但运行时继续工作。
tensorflow - 当您训练 NVlabs/stylegan2 时,这些数字是什么意思
当你训练风格甘时,这些数字意味着什么
我担心的是Augment,因为它似乎每跳一次在0.105和0.104之间翻转,我不知道那是坏还是好的。
一个我想我知道的
Tick:是信息显示的次数。
时间:是训练了多长时间
Sec/Tick:在每个 Tick 之间是第二个:
我不知道的那些
金格????
秒/kimg ????
增加 ????
最佳的揣测
gpumem:使用的 GPU 数量?
维护:在某些滴答声中它会创建一个还原点,创建还原点所需的时间位于此处?