问题标签 [tf-slim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何在张量流中出队之前多次读取队列的顶部
在下面的示例中,每次运行时sess.run([image, label])
,都会返回队列中的不同样本,因此返回不同的样本np_image
。
有没有办法让我slim.queues.QueueRunners
知道我想在出队操作发生之前使用(运行)相同的样本倍数?
我问的原因是我有一个不适合我的 VRAM 的大型操作。我必须将大操作分解为几个小操作,并在feed_dict
每次运行小操作时提供不同的操作。但是,当我run
进行小操作时,image
更改会破坏代码。将所有小操作放在一个列表和run
列表中对我来说不起作用,因为 VRAM 大小是限制。
谢谢!
python - TensorFlow 神经网络损失值 NaN
我正在尝试在大型数据集上构建一个简单的多层感知器模型,但我得到的损失值为 nan。奇怪的是:在第一个训练步骤之后,损失值不是 nan,而是大约 46(这是奇怪的低。当我运行逻辑回归模型时,第一个损失值大约是 ~3600)。但是,在那之后,损失值一直是 nan。我也使用 tf.print 来尝试调试它。
该模型的目标是预测约 4500 个不同的类别——所以这是一个分类问题。使用 tf.print 时,我看到在第一个训练步骤(或通过 MLP 前馈)之后,来自最后一个全连接层的预测似乎是正确的(所有在 1 和 4500 之间变化的数字)。但是,在那之后,最后一个全连接层的输出要么全为 0,要么变为其他常数(0 0 0 0 0)。
有关我的模型的一些信息:
3层模型。所有全连接层。
批量大小为 1000
0.001 的学习率(我也尝试了 0.1 和 0.01 但没有任何改变)
使用 CrossEntropyLoss(我确实添加了一个 epsilon 值来防止 log0)
使用亚当优化器
学习率衰减为 0.95
该模型的确切代码如下:(我使用的是 TF-Slim 库)
任何帮助将不胜感激!非常感谢!
model - Tensorflow Slim 恢复模型并预测
我目前正在尝试学习如何使用 TF-Slim,并且正在学习本教程:https ://github.com/mnuke/tf-slim-mnist 。
假设我已经在检查点中保存了一个经过训练的模型,我现在如何使用该模型并应用它?比如,在本教程中,我如何使用经过训练的 MNIST 模型并输入一组新的 MNIST 图像,并打印预测结果?
tensorflow - 神经网络使用 TF-Slim 跳过连接?
我只有几个关于神经网络和跳过连接的问题:
当人们说 3-layer NN 时,这意味着有一个输入层、一个隐藏层和一个输出层,对吧?
我似乎无法在网上找到很多关于跳过连接/层的资源/信息。它们通常用于什么类型的神经网络?MLP?美国有线电视新闻网?循环神经网络?
另外,是否可以使用 tensorflow 和 TF-slim 实现跳过连接?我检查了 TF-slim 库,但它似乎不包含跳过层作为其包含的层之一。
提前非常感谢!
neural-network - 在非图像一维数据上使用 CNN
我有一个二维矩阵(批量大小 x 1000)。这些值不是随机的,并且在它们的结构中确实有意义——它们是按时间排序的。
我想尝试在这些数据上使用 CNN。是否可以在诸如此类的非图像数据上运行 CNN?由于 tf-slim 要求输入的等级> = 3,因此我一直遇到麻烦。
据我了解,CNN 需要 [batch size, height, width, channel] 的输入等级。如何使用 tf.reshape() 将我拥有的内容转换为该形式?
tensorflow - TensorFlow CNN 形状错误
我正在尝试对某些数据使用 CNN,但我的损失函数出现错误,因为我的模型的输出是 [1000, 1000, 4000] 的形状,而它应该是 [1000, 4000]。在这种情况下,前 1000 个是批量大小,而 4000 是我拥有的类数,因为这是一个分类问题。
我想我可能需要在完全连接层之后再次使用 tf.reshape() 函数来获得正确的输出,但我不太确定如何做到这一点。我已经尝试过 tf.reshape(output [-1, 4000]),但这仍然保留了另外 1000 个。
这是我的代码:
基本上,我的输出需要是 2 级的形状,但由于某种原因,它变成了 3 维。我需要输出的形状为 [1000, 4000],即批量大小 x num_classes。
任何帮助将不胜感激。提前致谢!
顺便说一句,我正在使用 tf-slim 库。
编辑: tf.flatten 在完全连接层之前会为此工作吗?
tensorflow - 在 tf-slim 中实现跳过/剩余层
我一直在试图弄清楚如何使用 tf-slim 实现跳过/剩余连接,但我似乎无法理解。
我知道跳过连接基本上不仅为下一层提供输入,还为之后的层提供输入。我还阅读了几篇关于跳过层的论文,并记得他们提到了 F(x) + x,我认为这是在 x 上添加另一个 x 的激活函数。不过,我不确定这对在 tf-slim 中实现跳过/剩余层有何帮助。
下面是我为它编写的代码,但我不能 100% 确定我是否做得正确。该模型运行,但我不确定它是否利用了跳过连接和一切!
任何帮助将不胜感激。提前致谢!
tensorflow - decode_jpeg,encode_jpeg 类型错误
我正在适应我自己的需要以下代码 https://github.com/tensorflow/models/blob/master/slim/datasets/download_and_convert_flowers.py
我需要添加零填充并将图像大小调整为 299x299(inception V3 输入大小)。
我正在这样做添加一些代码行来改变原来的
有了这个
我收到以下错误
我只发现了这个未解决的问题 https://github.com/tensorflow/models/issues/726
也许我的代码中还有其他问题
tensorflow - TF-slim 层数
下面的代码会代表一层还是两层?我很困惑,因为神经网络中不应该还有一个输入层吗?
是否包含隐藏层?我只是想能够可视化网络。提前致谢!
python - 使用没有 slim.learning.train() 的 TensorFlow TF-Slim
TF-Slim 使用自己的训练循环。但是,我想使用 TF-Slim 模型(Resnet50),同时仍然使用我自己的 tensorflow 训练循环。TF-Slim 模型只输出预测,我计算自己的总损失。我能够在没有错误的情况下训练模型,并且训练错误似乎收敛。我之所以问,是因为我在评估过程中遇到了批量标准化问题(与训练错误相比,错误非常高)。我发现这可能是由于训练步骤不足。但我想确保我没有错误地使用 TF-Slim。
TF-Slim 训练过程如下所示:
我不想使用train_op
但是像这样的东西
然后打电话sess.run(train_tensor)
这会在内部引起任何问题吗?我在这里读到应该使用train_op
:github问题
还是根本不允许传递,例如,直接传递train_tensor
给
slim.learning.train()
函数?