问题标签 [imagenet]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
1493 浏览

tensorflow - 分布式张量流参数服务器和工作者

我密切关注 Imagenet 分布式 TF 训练示例。

当此示例在 2 个不同的工作人员上运行时,我无法理解数据是如何分布的?理论上,不同的工人应该看到数据的不同部分。另外,代码的哪一部分告诉参数在参数服务器上传递?就像在多 GPU 示例中一样,'cpu:0' 有明确的部分。

0 投票
3 回答
5159 浏览

machine-learning - TensorFlow:向预训练的 Inception 模型添加类并输出完整的图像层次结构

两个问题:

1) 有谁知道我是否可以向预训练的 Inception-v3 模型添加新的图像类?例如,我想在众多国旗上训练 TensorFlow,但我需要确保我仍然可以识别来自 ImageNet 层次结构的图像。我意识到有一种方法可以擦除 Inception 的顶层并在我的类上完全重新训练模型,但这非常有限且耗时。

2)另外,有没有办法输出包含图像接收的标签的整个层次结构?我希望不仅能够具体看到 Inception 将图像标记为什么,而且我希望看到 ImageNet 中所有更广泛的“合成集”。例如,我对“动物/驯养动物/狗/贵宾犬/玩具贵宾犬”感兴趣,而不仅仅是看到输出“玩具贵宾犬”。

非常感谢任何回应。

0 投票
2 回答
6166 浏览

computer-vision - 在适度的硬件设置上训练 Tensorflow Inception-v3 Imagenet

我一直在一台配备单个 GPU(GeForce GTX 980 Ti,6GB)的普通机器上训练 Inception V3。最大批量大小似乎约为40.

我使用了文件中指定的默认学习率设置inception_train.pyinitial_learning_rate = 0.1和. 经过几周的训练,我能够达到的最佳准确度如下(大约 500K-1M 次迭代):num_epochs_per_decay = 30learning_rate_decay_factor = 0.16

我尝试在培训课程结束时调整设置,但看不到准确性有任何改进。

根据本论坛的其他一些帖子,我已经从头开始了一个新的培训课程,num_epochs_per_decay= 10 和learning_rate_decay_factor= 0.001,但在这里有点摸不着头脑。

对于像我这样的小型硬件设置的良好默认设置有什么建议吗?

0 投票
1 回答
67 浏览

computer-vision - 深度学习 - 在 Conv 网络模型之上进行微调

我正在使用 Alexnet 架构对图像网络模型进行微调。我的数据集非常小(每类 7 张图像,没有增强)。我必须删除最后一个 FC 层("FC8")的权重,但其他全连接层呢?我应该使用图像网络模型的权重还是随机初始化"FC6""FC7"所有三个 FC 层的学习率都是 5。

0 投票
1 回答
256 浏览

machine-learning - 卷积 ImageNet 网络对于翻转图像是不变的

我正在使用深度学习 caffe 框架进行图像分类。
我有带脸的硬币。其中一些是左向的,有些是正确的。

为了对它们进行分类,我使用了常见的方法——从已经捕获大量图像模式的预训练 ImageNet 网络中获取权重和结构,并主要训练最后一层以适合我的训练集。

但是我发现网络在这个集合上不起作用:我拿了一些硬币,例如 leftdirected ,为其生成水平翻转的图像并将其标记为右侧。

右侧脸

对于这个集合的卷积网络,准确率约为 50%,它完全是随机结果。

我还尝试在 2 个图像(“h”字母的 2 个翻转版本)上训练网络。但结果相同 - 50% 。(如果我选择不同的字母并在 augemeneted 数据集上训练网络 - 我很快就会收到 100% 的准确度)。但是翻转的不变性打破了我的分类。

在此处输入图像描述 在此处输入图像描述

我的问题是:是否存在一些方法可以让我利用预训练的 imagenet 的优势,但以某种方式打破了这种不变性。网络上的哪一层使不变性成为可能。

我正在使用“caffe”基于此示例方法生成网络:

https://github.com/BVLC/caffe/blob/master/examples/02-fine-tuning.ipynb

0 投票
0 回答
263 浏览

neural-network - caffe的输出是图片的情况如何处理?

我正在处理使用caffe生成图像输出的情况,我知道我可以通过定义两个数据层来做到这一点,一个是顶部data,另一个是输出label。我使用EUCLIDEAN_LOSS作为我的损失函数。data和都是labelleveldb. 我建立的网络如下所示:

问题是,当我训练网络时,我遇到了以下问题:

它表明损失层的两个底部注意相同的通道。

任何人都可以就如何解决这个问题提供一些建议吗?

0 投票
1 回答
951 浏览

deep-learning - Caffe "ImageNet" 是否支持 .jpg 或 .bmp 图片?

Caffe“ImageNet”是否支持.jpg.bmp图像作为输入?在 ILSVRC2012 中,我只看到.JPEG文件。我试图在 .jpg 和 .bmp 文件上训练模型(每种类型的训练不同),但它没有给出合理的结果。

0 投票
2 回答
4810 浏览

c++ - 分类 imagenet - caffe/caffe.hpp:没有这样的文件或目录

我通过 caffe 使用自己的数据集训练了网络,现在我想使用 C++ 编写分类代码。我的机器(linux)仅适用于 CPU!(我用 GPU 在 VM 中训练网络)。

当我尝试“包含”特定的 Caffe 标头时:#include <caffe/caffe.hpp>编译器向我显示此消息:fatal error: caffe/caffe.hpp: No such file or directory.

我试图将特定的 caffe 文件复制到,/usr/lib/但没有帮助。有什么建议么?

0 投票
1 回答
270 浏览

machine-learning - 在 ILSVRC12 上学习 ZFNet 时测试精度无法提高

我已经为我的研究实现了一个自制的 ZFNet ( prototxt )。在定义了 20k 次迭代后,测试准确率保持在 ~0.001(即 1/1000),测试损失在 ~6.9,训练损失在 ~6.9,这似乎网络在 1k 类中一直在玩猜谜游戏。我已经彻底检查了整个定义并尝试更改一些超参数以开始新的训练,但无济于事,屏幕上显示相同的结果......

谁能给我点灯?提前致谢!


prototxt 中的超参数来自论文 [1]。正如论文中的图 3 所示,所有层的输入和输出似乎都是正确的。

调整是:

  • crop-s 用于训练和测试的输入都设置为,225而不是224#33 中讨论的那样;

  • 、 和的 1 像素零填充conv3,以使 blob 的大小保持一致 [1];conv4conv5

  • 所有可学习层的填充类型从constant[1] 更改为gaussianwith std: 0.01

  • weight_decay:按照@sergeyk 在 PR #33 中的建议从更改为0.00050.00025

[1] Zeiler, M. 和 Fergus, R. 可视化和理解卷积网络,ECCV 2014。

而对于可怜的部分......,我把它贴在这里

0 投票
1 回答
414 浏览

python-2.7 - 在 Python 上使用 Mxnet 库运行深度学习图像分类示例时出错

我正在尝试运行这个图像分类示例,该示例在 python中使用Mxnet 库和预训练的深度学习模型 Inception-BN。此行的执行抛出和错误:prob = model.predict(batch)[0]带有错误消息:

我尝试再次下载 Inception-BN 模型以确保它是最新的,但并没有什么不同。我确实怀疑问题可能出在网上:由于我的服务器没有配备gpu model = mx.model.FeedForward.load(prefix, num_round, ctx=mx.gpu(), numpy_batch_size=1),因此我不得不将gpu更改为cpu 。然而,错误似乎并没有指向那个方向。

知道如何解决吗?除了性能较低之外,使用 cpu 代替 gpu 是否存在问题?

最后是完整的错误信息: