问题标签 [tf-slim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 保存摘要和将模型保存在 logdir 中有什么区别?
使用 Tensorflow(特别是 tf.contrib.slim),我们需要校准一些参数以在 tensorboard 上生成我们想要的图形。
保存摘要间隔对我们来说更清楚它的作用。它以提供的间隔保存图表中特定点的值(或它们的平均值?)。
现在为什么在训练过程中需要保存模型本身的检查点?模型会改变吗?..不确定这是如何工作的
tensorflow - TensorFlow:苗条的训练循环崩溃“未注册会话工厂”
我有一个有效的 TF 安装,而且 slim 也可以正常工作。
但是,当我尝试运行一个苗条的训练循环时,我的应用程序崩溃了。
最小代码:
当我运行它时,我得到:
相反,当train_op
被称为“手动”时,相同的模型将进行训练:
有谁知道从哪里开始调试?
谢谢你,菲利普
tensorflow - 如何在多个 GPU 之间共享包含可变长度序列批次的队列?
根据Tensorflow: Multi-GPU single input queue,让多个 GPU 共享一个队列可能会更好。该链接建议我们可以增加批量大小,然后自己拆分批次。但是,当输入数据是可变长度序列时,增加批量大小可能会导致许多零填充值。
例如,如果我们创建一个 4 序列批次并拆分批次,它可能是
/gpu:0
x, x, x, 0, 0, 0, 0, 0, 0
x, x, x, x, x, x, x, x, x
/gpu:1
x, x, 0, 0, 0, 0, 0, 0, 0
x, x, x, x, x, 0, 0, 0, 0
我的问题是:如何生产批次,例如:
/gpu:0
x, x, x, 0, 0, 0, 0, 0, 0
x, x, x, x, x, x, x, x, x
/gpu:1
x, x, 0, 0, 0
x, x, x, x, x
在slim之后,我尝试使用 atf.train.batch(data, batch_size=2, dynamic_pad=True)
创建批处理,将批处理放入 a tf.PaddingFIFOQueue
,然后调用tf.PaddingFIFOQueue.dequeue()
不同的 GPU。但是,似乎所有 GPU 在最新的 tensorflow(master)上都获得了相同的数据。
以下代码演示了该问题:
在最新的 tensorflow 上,输出为
[0, 0]
在较旧的 tensorflow (0.11) 上,输出是
[1, 0]
,这就是我想要的。
看起来很苗条还可以使用最新的 tensorflow 在所有 GPU 上获取相同的数据。
有没有更好的方法在多个 GPU 之间共享包含可变长度序列的队列?
tensorflow - 在 slim.stack 中交错 slim.dropout 和 slim.fully_connected?
在 tf.slim 中,我想创建一个带有 dropout 的全连接层堆栈。
对于文档中的示例:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')
,我想添加辍学。
是否可以使用 slim.stack 或者我必须回到详细的方法?
tensorflow - 更改 Inception-v4 架构以在 Tensorflow 中进行多标签分类
我正在研究图像标记和注释问题,只是一个图像可能包含多个对象。我想训练 inception-v4 进行多标签分类。我的训练数据将是一个图像,一个长度等于类数的向量,如果图像中存在对象,则每个索引中都有 1。例如,如果我有四个类(人、汽车、树、建筑物)。如果图像包含人和汽车。那么我的向量将是 (1, 1, 0, 0)。
我需要进行哪些更改来训练 inception-v4 的标记和注释问题?
我只需要在inception-v4架构中更改输入格式并将损失函数从softmax更改为sigmoid_cross_entropy_with_logits吗?
https://github.com/tensorflow/models/blob/master/slim/nets/inception_v4.py
先感谢您。
python - TensorFlow slim 预训练 alexnet
Tensorflow slim 库为 alexnet 提供了图形结构,但它似乎没有提供预训练的(在 Imagenet 上)alexnet 检查点(https://github.com/tensorflow/models/tree/master/research/slim) . 有没有为 TF-slim 提供预训练的 alexnet 检查点?
tensorflow - 为什么我在 tensorflow 上的迁移学习实现在几次迭代后给我一个错误?
我正在使用 inception v1 架构进行迁移学习。我已经从下面的 github 存储库中下载了检查点文件、网络、预处理文件
https://github.com/tensorflow/models/tree/master/slim
我有 3700 张图像,并从图中为每个图像汇集了最后一个池化层过滤器,并将其附加到列表中。随着每次迭代,内存使用量都在增加,最终在大约 2000 个图像处终止运行。你能告诉我我犯了什么错误吗?
即使我删除了附加列表并只是尝试打印结果。这仍在发生。我想错误在于调用图表的方式。当我看到我的 ram 使用情况时,每次迭代都会变得很重,我不知道为什么会这样,因为我没有保存任何东西,第一次迭代之间也没有区别
从我的角度来看,我只是发送一张图像并获取输出并保存它们。因此,无论我发送多少张图片,它都应该有效。
我在 GPU (6GB) 和 CPU (32GB) 上都试过了。
tensorflow - tensorflow TF-slim inceptionv3 训练损失曲线很奇怪
TF-slim inceptionv3 从零开始训练
我使用 slim/train_image_classifier.py 在我自己的数据集上训练 inception_v3 模型: python train_image_classifier.py --train_dir=${TRAIN_DIR} --dataset_name=mydataset --dataset_split_name=train --dataset_dir=${DATASET_DIR} --model_name =inception_v3 --num_clones=2
如图所示,损失曲线很奇怪,它是一条线性下降的直线,带有一点凹凸部分。
以下是最后的输出,每 20 或 30 步损失减少 0.0001:</p>
mydataset.py 与flowers.py 相同,除了:
正常吗?谢谢你的帮助。
tensorflow - 使用 Tensorflow.slim 应用 convolution2d_transpose
我正在尝试使用 tf.slim.conv2d 函数应用 2 个卷积层,它们基本上每次都会将我的输入图像的大小减少一半。然后我想应用convolution2d_transpose来恢复我的原始图像形状。问题是我并不完全知道如何使用转置卷积函数,文档也没有太大帮助。
我正在使用自定义包装器,但这是我目前所拥有的:
我现在如何应用卷积转置函数来反转这两层的效果?
tensorflow - 如何使用卷积转置函数执行上采样?
我想使用 tf.slim 的卷积转置函数,似乎无论我如何选择我的内核大小和步幅,我都无法使卷积转置层的输出大于初始卷积层的输出。我在这里错过了什么吗?