问题标签 [stylegan]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 运行“encode_images.py”(styleGAN)时出错
我正在尝试不进行任何类型修改的“encode_images.py”文件,但它没有按照要求工作。我尝试了许多替代解决方案,但效果不佳。我已经从以下链接克隆了代码库:“git clone https://github.com/Puzer/stylegan-encoder.git”,我还尝试了你的 Git repo 文件,但这也不起作用。当我尝试使用命令“!python encode_images.py aligned_images/ generated_images/latent_representations/”运行代码时,我正在使用google colab notebook运行代码,它向我抛出了以下错误:
请让我知道我必须对我的文件进行哪些代码更改?从过去的 3-4 天开始,我一直在努力解决这个问题。
machine-learning - Stylegan3:如何将特定的刻度状态保存在文件中并从该文件恢复训练?
我正在使用 Google Colab 在我的数据上训练 Stylegan3。我可以从 .pkl 文件恢复。
但我想将特定的刻度状态保存在文件中,然后从该文件恢复训练。我该怎么做?我检查了 PyTorch 模型保存和恢复,但对 Stylegan3 刻度保存和恢复一无所知。
Stylegan3 官方仓库:https ://github.com/NVlabs/stylegan3
python - 从经过灰度训练的 GAN pkl 文件生成图像
我已经使用一组灰度图像训练了一个 stylegan,现在我被困在 generate.py 中,因为它全部用于生成 RGB 图像。我收到此错误:
当我将 generate.py 存档从 stylegan pytorch 从 RGB 更改为 L 时:
这是整个 generate.py 代码: https ://github.com/mit-han-lab/data-efficient-gans/blob/master/DiffAugment-stylegan2-pytorch/generate.py
我已经在互联网上搜索了几个小时并尝试了很多东西,但是我对 python 还很陌生,所以我已经没有什么想法需要在 generate.py 中进行更改才能获得图像,有人可以帮忙吗我?
nvidia - 随着不断发展的数据集,StyleGAN3 图像变得曝光不足或过度曝光
我正在尝试将 StyleGAN3 与不断发展的数据集一起使用,我目前的逻辑如下:
- 火车约半小时
- 使用添加的图像重新生成数据集
- 使用 --resume 恢复培训
为了测试,我一直在使用 metafaces 数据集,开始时大约有 100 张图像,每半小时向数据集添加大约 50 张新图像。
恢复后,结果逐渐变得很暗或很亮。
我正在使用stylegan3 github建议的参数进行训练:
关于如何使用不断增长的数据集进行培训的任何建议?
python - IndexError:Taming Transformers colab 中的元组索引超出范围
尝试在加载示例数据部分中尝试使用此Colab 笔记本并获取此“元组索引超出范围”错误。有任何想法吗?
python-3.x - 我遇到了这个错误 Input 0 is in compatible with layer model_14: expected shape=(None, 224, 224, 3), found shape=(1, 256, 256, 3)
这是我尝试过的代码,但它给了我 Input 0 is incompatible with layer model_21: expected shape=(None, 224, 224, 3), found shape=(1, 256, 256, 3)
tensorflow - 在 GANSpace 中使用自定义 StyleGAN2-ada 网络(.pkl 到 .pt 转换)
我使用Nvdia 的 StyleGAN2-ada pytorch implementation训练了一个网络。我现在有一个 .pkl 文件。我想在我的网络上使用GANSpace 代码。但是,要将 GANSpace 与自定义模型一起使用,您需要能够为您的模型提供一个检查点,该检查点应该上传到某个地方(他们建议使用 Google Drive)(此处代码中需要检查点)。我不完全确定这是如何工作的或为什么会这样工作,但无论哪种方式,我似乎都需要我的网络的 .pt 文件,而不是我目前拥有的 .pkl 文件。
我尝试按照本教程进行操作。看来 GANSpace 代码实际上提供了一个可以进行这种转换的文件(models/stylegan2/convert_weight.py)。但是,似乎应该存在的文件 convert_weight.py 已被指向整个其他repo的链接所取代。如果我尝试如下运行 convert_weight.py 文件,它会给我以下错误
这是有道理的,因为没有这样的 dnnlib 模块。如果我改为将其更改为在某个有它的地方(此处)查找 dnnlib 模块,就像这样
它之前给了我一个错误,说没有安装 TensorFlow(公平地说,它没有安装,因为我使用的是 PyTorch),就像这里报告的这个错误一样。然后我安装了 TensorFlow,但它给了我这个错误。
再次与 github 上报道的上一期相同。安装 torch_utils 后,我得到与 SamTransformer 相同的错误(ModuleNotFoundError: No module named 'torch_utils.persistence')。响应是“convert_weight.py 不支持 stylegan2-ada-pytorch”。
有很多我不确定,比如为什么我首先需要将 .pkl 文件转换为 .pt。很多东西似乎都在谈论将 TensorFlow 模型转换为 Pytorch 模型,但我的最初是在 Pytorch 中完成的,那我为什么需要转换它呢?我只需要一种上传我自己的网络以在 GANSpace 中使用的方法——我真的不介意如何,所以任何建议都将不胜感激。
python - StyleGAN 中的映射网络如何工作?
我正在学习 StyleGAN 架构,我对映射网络的目的感到困惑。在原始论文中它说:
我们的映射网络由 8 个全连接层组成,所有输入和输出激活(包括 z 和 w)的维数为 512。
并且没有关于这个网络以任何方式被训练的信息。
就像,它不会产生一些无意义的价值吗?
我试过创建一个这样的网络(但形状更小(16,)
):
然后根据一些随机值对其进行评估:
我得到一些随机输出,例如:
我错过了什么?网上有没有关于训练Mapping Network的资料?有什么数学解释吗?真的很困惑:(
tensorflow - tensorflow.python.framework.errors_impl.OutOfRangeError:序列结束 [StyleGAN2]
我正在尝试使用一个小的自定义数据集(总共大约 4k 图像和 2.5k 用于训练)来尝试这个网络(该 repo 是在其上实现的,并且与官方 StyleGAN2 repo 具有相同的依赖关系)。
运行时python run_training.py --data-dir=<>d --result-dir=<> --dataset="train" --num-gpus=1 --total-kimg=10000 --mirror-augment=True
,出现以下错误:
该网络是在 Tensorflow 1.15 上设计的,但 Google Colab 现在只提供 1.15.2 :(
你能帮我找出我做错了什么吗?
感谢您的任何帮助和新年快乐:)