问题标签 [tensorflow-slim]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 在不同的图表中“重用”单个张量流模型?
目前,我正在使用 Tf-Slim 库中的预训练 VGG 模型。我的动机是为这个网络的给定图像生成对抗性示例。任务总结如下:
但是,一旦我们进入第二次迭代并开始运行 logits= vgg.vgg16(....) 我们就会收到以下错误:
很明显,这个错误是由于第二次迭代中的图形复制而发生的。由于 tf-slim 模型不在reuse=True
作用域中使用,它会引发此错误(因为在第二次迭代中,我们再次要求它在图中添加 vgg 层,这些层已经存在)。
是否有可能以某种方式避免此错误?应该可以为 VGG 模型创建一次图,并在需要计算 logits 时使用它。
这应该是可能的原因是来自 keras 的示例。在 keras 中,我们可以简单地定义一次模型,
稍后,我们可以为不同的张量添加计算 logits,
现在在这两个计算中,将使用相同的模型参数,即不会出现这样的错误。有没有办法使用 tensorflow 模型实现相同的功能。
tensorflow - 在预训练的 TensorFlow 图中重新训练最后/顶层的通用方法
我正在对我的数据试验来自“ Tensorflow detection model zoo ”的不同预训练 TensorFlow 模型-我想仅重新训练(微调)每个模型中最深的 N 层,以找到我的数据的最佳配置。有没有办法以适用于任何架构的通用形式执行此操作,并且不依赖于层名称(模型之间的变化)?或者,是否有一种简单的方法可以查询图表中最后 N 层的名称(我的意思是层 - 而不是操作)?
tensorflow - 如何在微调 Tensorflow Inception_V3 模型时去掉图中添加的额外操作?
我正在尝试将经过微调的 tensorflow inception_v3 模型转换为可以在 NVIDIA 的 Jetson TX2 上运行的 uff 格式。对于转换为 uff,支持某些操作,有些不支持。我能够使用 tensorflow 提供的 imagenet 检查点成功冻结并转换为 uff inception_v3 模型。但是,如果我对模型进行微调,则会在新图表中添加其他操作,如 Floor、RandomUniform 等,但尚不支持。即使在冻结模型后这些层仍然存在。这也发生在 tensorflow 网站上提供的花卉样本的微调中。
- 我想了解为什么在图中添加了额外的操作,而微调只是应该修改最后一层以匹配所需的输出数量。
- 如果它们是在训练时添加的,我该如何摆脱它们?在发布 imagenet 的 inception_v3 模型之前,tensorflow 团队遵循了哪些后处理步骤?
如果需要,我可以共享 pbtxt 文件。目前,模型层详细信息已上传到https://github.com/shrutim90/TF_to_UFF_Issue。我正在使用带有 GPU 的 Tensorflow 1.6。
我正在按照以下步骤冻结或微调模型:https ://github.com/tensorflow/models/tree/master/research/slim#Pretrained 。如上述链接所述,要重现该问题,请安装 TF-Slim 图像模型库并按照以下步骤操作:
要检查图层,您可以查看 .pbtxt 文件或使用 NVIDIA 的 convert-to-uff 实用程序。
tensorflow - 是否可以将 tf-slim 中的 mobilenet_v2 与 anaconda 和 jupyter 笔记本一起使用?
我有一个利用 tf-slim 启动的任务。我们应该使用预定义的架构和预训练的权重来训练一个新模型。示例代码如下所示。
我想使用 mobilenet,但它似乎不会像它不可用一样导入。
ImportError:无法导入名称“mobilenet”
tensorflow - 提供 TensorFlow 自定义模型
我是机器学习的新手,基本上我创建了自己的图像数据集并对它们进行训练并在 jupyter notebook 上识别图像,之后我尝试按照本教程部署这个模型
我执行
它运行成功。
如何导出我自己的模型并部署?我的模型名称是“GoogleTensorflow”
我使用创建了这个模型
tensorflow - Tensorflow Hub 图像模块:预处理和输出值的清晰度
非常感谢您的支持!我目前使用 TF Slim - TF Hub 似乎是迁移学习的一个非常有用的补充。但是,文档中还不清楚以下几点:
1. 预处理是隐式完成的吗?这是基于模块构造函数中的“trainable=True/False”参数吗?
当我使用 Tf-slim 时,我使用预处理方法:
2.Inception模型如何访问AuxLogits?好像不见了:
输出是
python - tensorflow slim 修改 resnet 模型
我想修改 resnet_v2.resnet_v2_50 模型,以便将一个数字连接到 pool5 层。导入网络后,我可以在 end_points 变量中看到图层。
所以我可以访问不同的层
但是在池化层之后,我无法访问网络的最后一部分。
但是我可以在 Tensorboard 和 resnet_v2_50 的代码中看到有某种 pool5 层。我怎样才能访问它,所以我可以修改它并将一个数字连接到它?
tensorflow - Tensorflow:使用 slim.dataset.Dataset 时,有没有办法将标签 ID 值映射到其他值?
假设,对于数据集 A 中的示例,labels
可能是[1, 2, 1, 3]
. 但是,出于某种原因(例如,由于数据集 B),我想将标签 ID 映射到其他值。映射可能如下所示。
目前,我猜测有两种方法:
--tf.data.Dataset
似乎有一个map(map_func)
每个例子都应该通过的功能,这可能是解决方案。不过,我比较熟悉slim.dataset.Dataset
。有类似的技巧slim.dataset.Dataset
吗?
- 我想知道我是否可以简单地将一些映射函数应用于张量label
,例如:
但是,下面没有工作,这是我需要的。有人可以建议吗?
tensorflow - 图像分类器中随机缩放/裁剪/亮度的值是多少
当我们在 Mobilenet 中重新训练图像分类层时,重新训练脚本允许我们指定几个参数来预处理输入图像:
random_scale random_crop random_brightness
我想知道如何确定这些值?我在一些文章中看到他们将 random_brightness 和 random_scale 设置为 30,并将 random_crop 设置为 0。
有人可以帮我理解这些参数吗?
c++ - 在 Tensorflow 中与不同 GPU 并行运行多个模型以在 C++ 中进行预测
描述 我使用 2 个 GPU GTX 1080 TI、11GB 和 CUDA/cuDNN 9.1 版的问题。操作系统上的 cudnn 7.1 (Debian 9)。
我想在两个不同的 GPU 中运行两个模型进行预测以加快运行时间(通过在两个 GPU 中创建两个会话实例)。第一个模型对第一个 GPU 进行计算,第二个模型通过执行特定设备的每个会话在第二个 GPU 中进行计算,类似于 python "with tf.device('/gpu:0')"
源代码
输出
讨论
通过创建两个线程在两个 GPU 中运行两个模型来同时运行两个模型,我看不到任何耗时的改进。在两个 GPU 中运行两个模型所消耗的时间与仅使用一个 GPU 运行的时间大致相同。