问题标签 [tf-slim]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
501 浏览

tensorflow - 保存摘要和将模型保存在 logdir 中有什么区别?

使用 Tensorflow(特别是 tf.contrib.slim),我们需要校准一些参数以在 tensorboard 上生成我们想要的图形。

保存摘要间隔对我们来说更清楚它的作用。它以提供的间隔保存图表中特定点的值(或它们的平均值?)。

现在为什么在训练过程中需要保存模型本身的检查点?模型会改变吗?..不确定这是如何工作的

0 投票
1 回答
1411 浏览

tensorflow - TensorFlow:苗条的训练循环崩溃“未注册会话工厂”

我有一个有效的 TF 安装,而且 slim 也可以正常工作。

但是,当我尝试运行一个苗条的训练循环时,我的应用程序崩溃了。

最小代码:

当我运行它时,我得到:

相反,当train_op被称为“手动”时,相同的模型将进行训练:

有谁知道从哪里开始调试?

谢谢你,菲利普

0 投票
1 回答
341 浏览

tensorflow - 如何在多个 GPU 之间共享包含可变长度序列批次的队列?

根据Tensorflow: Multi-GPU single input queue,让多个 GPU 共享一个队列可能会更好。该链接建议我们可以增加批量大小,然后自己拆分批次。但是,当输入数据是可变长度序列时,增加批量大小可能会导致许多零填充值。

例如,如果我们创建一个 4 序列批次并拆分批次,它可能是

/gpu:0

  • x, x, x, 0, 0, 0, 0, 0, 0
  • x, x, x, x, x, x, x, x, x

/gpu:1

  • x, x, 0, 0, 0, 0, 0, 0, 0
  • x, x, x, x, x, 0, 0, 0, 0

我的问题是:如何生产批次,例如:

/gpu:0

  • x, x, x, 0, 0, 0, 0, 0, 0
  • x, x, x, x, x, x, x, x, x

/gpu:1

  • x, x, 0, 0, 0
  • x, x, x, x, x

slim之后,我尝试使用 atf.train.batch(data, batch_size=2, dynamic_pad=True)创建批处理,将批处理放入 a tf.PaddingFIFOQueue,然后调用tf.PaddingFIFOQueue.dequeue()不同的 GPU。但是,似乎所有 GPU 在最新的 tensorflow(master)上都获得了相同的数据。

以下代码演示了该问题:

在最新的 tensorflow 上,输出为 [0, 0]

在较旧的 tensorflow (0.11) 上,输出是 [1, 0] ,这就是我想要的。

看起来很苗条还可以使用最新的 tensorflow 在所有 GPU 上获取相同的数据。

有没有更好的方法在多个 GPU 之间共享包含可变长度序列的队列?

0 投票
2 回答
1800 浏览

tensorflow - 在 slim.stack 中交错 slim.dropout 和 slim.fully_connected?

在 tf.slim 中,我想创建一个带有 dropout 的全连接层堆栈。

对于文档中的示例: slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc'),我想添加辍学。

是否可以使用 slim.stack 或者我必须回到详细的方法?

0 投票
1 回答
1427 浏览

tensorflow - 更改 Inception-v4 架构以在 Tensorflow 中进行多标签分类

我正在研究图像标记和注释问题,只是一个图像可能包含多个对象。我想训练 inception-v4 进行多标签分类。我的训练数据将是一个图像,一个长度等于类数的向量,如果图像中存在对象,则每个索引中都有 1。例如,如果我有四个类(人、汽车、树、建筑物)。如果图像包含人和汽车。那么我的向量将是 (1, 1, 0, 0)。

我需要进行哪些更改来训练 inception-v4 的标记和注释问题?

我只需要在inception-v4架构中更改输入格式并将损失函数从softmax更改为sigmoid_cross_entropy_with_logits吗?

https://github.com/tensorflow/models/blob/master/slim/nets/inception_v4.py

先感谢您。

0 投票
1 回答
3202 浏览

python - TensorFlow slim 预训练 alexnet

Tensorflow slim 库为 alexnet 提供了图形结构,但它似乎没有提供预训练的(在 Imagenet 上)alexnet 检查点(https://github.com/tensorflow/models/tree/master/research/slim) . 有没有为 TF-slim 提供预训练的 alexnet 检查点?

0 投票
1 回答
158 浏览

tensorflow - 为什么我在 tensorflow 上的迁移学习实现在几次迭代后给我一个错误?

我正在使用 inception v1 架构进行迁移学习。我已经从下面的 github 存储库中下载了检查点文件、网络、预处理文件

https://github.com/tensorflow/models/tree/master/slim

我有 3700 张图像,并从图中为每个图像汇集了最后一个池化层过滤器,并将其附加到列表中。随着每次迭代,内存使用量都在增加,最终在大约 2000 个图像处终止运行。你能告诉我我犯了什么错误吗?

https://github.com/Prakashvanapalli/TensorFlow/blob/master/Transfer_Learning/inception_v1_finallayer.py

即使我删除了附加列表并只是尝试打印结果。这仍在发生。我想错误在于调用图表的方式。当我看到我的 ram 使用情况时,每次迭代都会变得很重,我不知道为什么会这样,因为我没有保存任何东西,第一次迭代之间也没有区别

从我的角度来看,我只是发送一张图像并获取输出并保存它们。因此,无论我发送多少张图片,它都应该有效。

我在 GPU (6GB) 和 CPU (32GB) 上都试过了。

0 投票
1 回答
496 浏览

tensorflow - tensorflow TF-slim inceptionv3 训练损失曲线很奇怪

TF-slim inceptionv3 从零开始训练

我使用 slim/train_image_classifier.py 在我自己的数据集上训练 inception_v3 模型: python train_image_classifier.py --train_dir=${TRAIN_DIR} --dataset_name=mydataset --dataset_split_name=train --dataset_dir=${DATASET_DIR} --model_name =inception_v3 --num_clones=2

如图所示,损失曲线很奇怪,它是一条线性下降的直线,带有一点凹凸部分。 在此处输入图像描述

以下是最后的输出,每 20 或 30 步损失减少 0.0001:</p>

mydataset.py 与flowers.py 相同,除了:

正常吗?谢谢你的帮助。

0 投票
1 回答
1630 浏览

tensorflow - 使用 Tensorflow.slim 应用 convolution2d_transpose

我正在尝试使用 tf.slim.conv2d 函数应用 2 个卷积层,它们基本上每次都会将我的输入图像的大小减少一半。然后我想应用convolution2d_transpose来恢复我的原始图像形状。问题是我并不完全知道如何使用转置卷积函数,文档也没有太大帮助。

我正在使用自定义包装器,但这是我目前所拥有的:

我现在如何应用卷积转置函数来反转这两层的效果?

0 投票
0 回答
308 浏览

tensorflow - 如何使用卷积转置函数执行上采样?

我想使用 tf.slim 的卷积转置函数,似乎无论我如何选择我的内核大小和步幅,我都无法使卷积转置层的输出大于初始卷积层的输出。我在这里错过了什么吗?