问题标签 [tf-slim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何在 TensorFlow slim 中将 log_every_n_steps 与 save_summaries_secs 同步
我是使用 TF Slim 进行培训的新手:
我的日志看起来像:
我的总结如下:
为什么同一时间步长的数字不同?如何让我的摘要与我的日志具有相同的数字?
tensorflow - TensorFlow 数据匮乏的 GPU
我需要帮助优化自定义 TensorFlow 模型。我有一个 40GB ZLIB 压缩的 .TFRecords 文件,其中包含我的训练数据。每个样本由两个 384x512x3 图像和一个 384x512x2 向量场组成。我正在按如下方式加载我的数据:
但是,我每秒只能获得大约 0.25 到 0.30 的全局步数。(慢的!)
这是我用于并行阅读器的 TensorBoard dash。它始终保持在 99%-100%。
我绘制了一段时间内的 GPU 使用情况(每秒百分比)。它看起来数据匮乏,但我不知道如何解决这个问题。我尝试增加/减少线程数,但似乎没有什么不同。我正在使用具有 4 个 CPU 和 61GB RAM 的 NVIDIA K80 GPU 进行训练。
我怎样才能让这列火车更快?
machine-learning - tf slim微调需要gpu吗?
实际上,我正在尝试在 git hub 上使用 tf slim 微调示例来微调 inceptionV3 模型,它给了我这个错误:
InvalidArgumentError(有关回溯,请参见上文):无法将设备分配给节点“InceptionV3/AuxLogits/Conv2d_2b_1x1/biases/RMSProp_1”:无法满足明确的设备规范“/device:GPU:0”,因为没有匹配该规范的设备在此注册过程; 可用设备:/job:localhost/replica:0/task:0/cpu:0
托管调试信息:
托管组具有以下类型和设备:
ApplyRMSProp: CPU
Const: CPU
Assign: CPU
IsVariableInitialized: CPU
Identity: CPU
VariableV2: CPU
[[节点:InceptionV3/AuxLogits/Conv2d_2b_1x1/biases/RMSProp_1 = VariableV2_class=["loc:@InceptionV3/AuxLogits/Conv2d_2b_1x1/biases"], container="", dtype=DT_FLOAT, shape=[5], shared_name="" , _device="/device:GPU:0"]]
python - tfslim “从头开始训练模型。” 发生了某种错误
我正在训练 tf slim
https://github.com/tensorflow/models/tree/master/slim
从头开始训练模型。发生了某种错误
我认为这是一种 gpu 和 cpu 运行问题。
其他代码对我来说很好。
但是这个发生的错误
我运行以下代码
错误是
python - 我可以在使用 slim.learning.train 时获取张量吗?
感谢TF-Slim,构建新模型更容易
但是在训练模型时,slim.learning.train 似乎无法获取我需要检查模型的张量。
它只能返回损失(训练操作),下面的代码在 tensorflow/contrib/slim/python/slim/learning.py 中,它显示了损失是如何打印的。
有什么方法可以获取张量或只打印它的值吗?
tensorflow - “TypeError:无法为非浮点类型创建初始化程序。” 当在带有 VGG19 模型的 tf-slim 中使用提取特征时
我想从 vgg19 的 pool5 层中提取特征。我为此使用 tf-slim 库。我收到一个非常奇怪的错误说
我的图像是 dtype=uint8 的 ndarrays。因此,为了解决此错误,我将图像更改为使用 tf.to_float(images)
. 但现在它抱怨我的 gpu 内存不足,这很奇怪。因为我有一个带有 11gb vram 的 nvidia GeForce GTX 1080 Ti,并且没有其他进程在上面运行。批量大小仅为 2000 张图像。在切换到 tf-slim 之前,我使用的是 caffe,这个批量大小根本不是问题。我的代码是这样的:
所以正如你在上面看到的,我只是想从预训练的权重中提取 pool5 层的特征。那么这里的问题是什么?转换为浮动有问题吗?正如我之前所说,我为此使用了 caffe,我什至能够从 20,000 张图像中提取特征,而这里只有 2000 张。特别是错误说:
注:图像变量的形状为 [2000,224,224,3]
谢谢
tensorflow - Tf-slim: ValueError: 变量 vgg_19/conv1/conv1_1/weights 已经存在,不允许。您的意思是在 VarScope 中设置 reuse=True 吗?
我正在使用 tf-slim 从几批图像中提取特征。问题是我的代码适用于第一批,之后我得到标题中的错误。我的代码是这样的:
如您所见,在每批中,我选择了一批图像并使用 vgg-19 模型从 pool5 层中提取特征。但是在第一次迭代之后,我在尝试获取端点的行中出现错误。正如我在互联网上发现的一种解决方案是每次都重置图表,但我不想这样做,因为在我使用这些提取的特征训练的代码的后面部分中,我的图表中有一些权重。我不想重置它们。任何线索高度赞赏。谢谢!
tensorflow - ResNet RGB 表示在 tensorflow-slim
我正在使用 tensorflow slim 加载预训练模型,如 vgg 和 resnet-50。因此对于 vgg , tf-slim 提供了一种加载 RGB 平均值的方法,例如:
我找不到与 resnets 类似的东西。还没有实施吗?我也知道一些像 py-torch 这样的库为每个模型提供了全局平均值。tf-slim 也是这样吗?
tensorflow - 了解 tf.metrics 和 slims 流指标
我不确定我是否正确理解 tf.metrics 和 tf.contrib.slim.metrics。
这是程序的一般流程:
假设我想计算准确性。我有两个选择:a)计算所有批次中所有图像中所有像素的精度 b)计算一个图像中所有像素的精度,并取所有批次中所有图像的所有精度的平均值。
对于 a) 版本,这就是我要写的:
这应该相当于:
此外,添加这一行应该没有意义甚至是错误的
因为我从 tf.metrics.accuracy 获得的准确度已经通过 update_op 对所有批次进行了计算。正确的?
如果我选择选项 b),我可以达到这样的效果:
其中 my_own_compute_accuracy() 计算标签和预测张量的符号精度,但不返回任何更新操作。事实上,这个版本是计算单张图像还是单批次的准确率?基本上,如果我将批量大小设置为完整数据集的大小,那么该指标是否与 slim.metrics.streaming_accuracy 的输出相匹配?
最后,如果我两次添加相同的更新操作,它会被调用两次吗?
谢谢!