问题标签 [imagenet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 分布式张量流参数服务器和工作者
我密切关注 Imagenet 分布式 TF 训练示例。
当此示例在 2 个不同的工作人员上运行时,我无法理解数据是如何分布的?理论上,不同的工人应该看到数据的不同部分。另外,代码的哪一部分告诉参数在参数服务器上传递?就像在多 GPU 示例中一样,'cpu:0' 有明确的部分。
machine-learning - TensorFlow:向预训练的 Inception 模型添加类并输出完整的图像层次结构
两个问题:
1) 有谁知道我是否可以向预训练的 Inception-v3 模型添加新的图像类?例如,我想在众多国旗上训练 TensorFlow,但我需要确保我仍然可以识别来自 ImageNet 层次结构的图像。我意识到有一种方法可以擦除 Inception 的顶层并在我的类上完全重新训练模型,但这非常有限且耗时。
2)另外,有没有办法输出包含图像接收的标签的整个层次结构?我希望不仅能够具体看到 Inception 将图像标记为什么,而且我希望看到 ImageNet 中所有更广泛的“合成集”。例如,我对“动物/驯养动物/狗/贵宾犬/玩具贵宾犬”感兴趣,而不仅仅是看到输出“玩具贵宾犬”。
非常感谢任何回应。
computer-vision - 在适度的硬件设置上训练 Tensorflow Inception-v3 Imagenet
我一直在一台配备单个 GPU(GeForce GTX 980 Ti,6GB)的普通机器上训练 Inception V3。最大批量大小似乎约为40
.
我使用了文件中指定的默认学习率设置inception_train.py
:initial_learning_rate = 0.1
和. 经过几周的训练,我能够达到的最佳准确度如下(大约 500K-1M 次迭代):num_epochs_per_decay = 30
learning_rate_decay_factor = 0.16
我尝试在培训课程结束时调整设置,但看不到准确性有任何改进。
根据本论坛的其他一些帖子,我已经从头开始了一个新的培训课程,num_epochs_per_decay
= 10 和learning_rate_decay_factor
= 0.001,但在这里有点摸不着头脑。
对于像我这样的小型硬件设置的良好默认设置有什么建议吗?
computer-vision - 深度学习 - 在 Conv 网络模型之上进行微调
我正在使用 Alexnet 架构对图像网络模型进行微调。我的数据集非常小(每类 7 张图像,没有增强)。我必须删除最后一个 FC 层("FC8"
)的权重,但其他全连接层呢?我应该使用图像网络模型的权重还是随机初始化"FC6"
?"FC7"
所有三个 FC 层的学习率都是 5。
machine-learning - 卷积 ImageNet 网络对于翻转图像是不变的
我正在使用深度学习 caffe 框架进行图像分类。
我有带脸的硬币。其中一些是左向的,有些是正确的。
为了对它们进行分类,我使用了常见的方法——从已经捕获大量图像模式的预训练 ImageNet 网络中获取权重和结构,并主要训练最后一层以适合我的训练集。
但是我发现网络在这个集合上不起作用:我拿了一些硬币,例如 leftdirected ,为其生成水平翻转的图像并将其标记为右侧。
对于这个集合的卷积网络,准确率约为 50%,它完全是随机结果。
我还尝试在 2 个图像(“h”字母的 2 个翻转版本)上训练网络。但结果相同 - 50% 。(如果我选择不同的字母并在 augemeneted 数据集上训练网络 - 我很快就会收到 100% 的准确度)。但是翻转的不变性打破了我的分类。
我的问题是:是否存在一些方法可以让我利用预训练的 imagenet 的优势,但以某种方式打破了这种不变性。网络上的哪一层使不变性成为可能。
我正在使用“caffe”基于此示例方法生成网络:
https://github.com/BVLC/caffe/blob/master/examples/02-fine-tuning.ipynb
neural-network - caffe的输出是图片的情况如何处理?
我正在处理使用caffe
生成图像输出的情况,我知道我可以通过定义两个数据层来做到这一点,一个是顶部data
,另一个是输出label
。我使用EUCLIDEAN_LOSS
作为我的损失函数。data
和都是label
从leveldb
. 我建立的网络如下所示:
问题是,当我训练网络时,我遇到了以下问题:
它表明损失层的两个底部注意相同的通道。
任何人都可以就如何解决这个问题提供一些建议吗?
deep-learning - Caffe "ImageNet" 是否支持 .jpg 或 .bmp 图片?
Caffe“ImageNet”是否支持.jpg
或.bmp
图像作为输入?在 ILSVRC2012 中,我只看到.JPEG
文件。我试图在 .jpg 和 .bmp 文件上训练模型(每种类型的训练不同),但它没有给出合理的结果。
c++ - 分类 imagenet - caffe/caffe.hpp:没有这样的文件或目录
我通过 caffe 使用自己的数据集训练了网络,现在我想使用 C++ 编写分类代码。我的机器(linux)仅适用于 CPU!(我用 GPU 在 VM 中训练网络)。
当我尝试“包含”特定的 Caffe 标头时:#include <caffe/caffe.hpp>
编译器向我显示此消息:fatal error: caffe/caffe.hpp: No such file or directory
.
我试图将特定的 caffe 文件复制到,/usr/lib/
但没有帮助。有什么建议么?
machine-learning - 在 ILSVRC12 上学习 ZFNet 时测试精度无法提高
我已经为我的研究实现了一个自制的 ZFNet ( prototxt )。在定义了 20k 次迭代后,测试准确率保持在 ~0.001(即 1/1000),测试损失在 ~6.9,训练损失在 ~6.9,这似乎网络在 1k 类中一直在玩猜谜游戏。我已经彻底检查了整个定义并尝试更改一些超参数以开始新的训练,但无济于事,屏幕上显示相同的结果......
谁能给我点灯?提前致谢!
prototxt 中的超参数来自论文 [1]。正如论文中的图 3 所示,所有层的输入和输出似乎都是正确的。
调整是:
crop
-s 用于训练和测试的输入都设置为,225
而不是224
#33 中讨论的那样;、 和的 1 像素零填充
conv3
,以使 blob 的大小保持一致 [1];conv4
conv5
所有可学习层的填充类型从
constant
[1] 更改为gaussian
withstd: 0.01
;weight_decay
:按照@sergeyk 在 PR #33 中的建议从更改为0.0005
;0.00025
[1] Zeiler, M. 和 Fergus, R. 可视化和理解卷积网络,ECCV 2014。
而对于可怜的部分......,我把它贴在这里
python-2.7 - 在 Python 上使用 Mxnet 库运行深度学习图像分类示例时出错
我正在尝试运行这个图像分类示例,该示例在 python中使用Mxnet 库和预训练的深度学习模型 Inception-BN。此行的执行抛出和错误:prob = model.predict(batch)[0]
带有错误消息:
我尝试再次下载 Inception-BN 模型以确保它是最新的,但并没有什么不同。我确实怀疑问题可能出在网上:由于我的服务器没有配备gpu model = mx.model.FeedForward.load(prefix, num_round, ctx=mx.gpu(), numpy_batch_size=1)
,因此我不得不将gpu更改为cpu 。然而,错误似乎并没有指向那个方向。
知道如何解决吗?除了性能较低之外,使用 cpu 代替 gpu 是否存在问题?
最后是完整的错误信息: