问题标签 [imagenet]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
8046 浏览

machine-learning - 我在哪里可以找到 ImageNet VID 数据集?

2015 年 ImageNet 大规模视觉识别挑战赛 (ILSVRC2015) 引入了一项名为 object-detection-from-video (VID) 的任务,其中包含一个新的数据集。

所以我去 ILSVER2015 网站并尝试找到数据集。 http://image-net.org/challenges/LSVRC/2015/index

但我找不到它。有人能告诉我从哪里得到那个数据集吗?

0 投票
1 回答
262 浏览

tensorflow - 训练 InceptionV3 网络不工作(Tensorflow)

我已经安装了 Tensorflow,bazel 都是最新版本。

要从头开始训练模型,我必须在此链接https://github.com/tensorflow/models上运行以下命令:

它给出了一个错误

bazel-bin 似乎是文件而不是目录。

此外,如果尝试转到 /models/inception/inception 路径并尝试运行 imagenet_train.py 文件,则会引发错误:

我不知道为什么它不起作用。我遵循了每一步。这让我困扰了很长时间。

0 投票
1 回答
1213 浏览

machine-learning - 为什么 imagenet 数据集标签存在差异?

用于训练的标签和用于验证的标签是否相同?我认为它们应该是一样的;但是,在线提供的标签似乎存在差异。当我从官方网站下载其验证数据的 imagenet 2012 标签时,我得到的标签kit_fox以第一个标签开头,它与我从官方网站下载的 2012 年数据集验证图像完全匹配。这是标签的示例:https ://gist.github.com/aaronpolhamus/964a4411c0906315deb9f4a3723aac57

然而,对于几乎所有的预训练模型,包括那些由谷歌训练的模型,他们用于训练的 imagenet 标签实际上都是从开始的tench, tinca tinca。见这里:https ://gist.github.com/yrevar/942d3a0ac09ec9e5eb3a

为什么会有如此巨大的差异?'tinca tinca' 之类的标签从何而来?

如果我们使用对应于实际验证图像的第一个标签映射,我们将面临另一个问题:2 个类(“Crane”和“maillot”)实际上是重复的,即它们具有相同的名称但指代不同种类的起重机 -机械起重机和动物起重机 - 在 2 个类别中产生 100 个图像,而不是假设的 50 个。如果我们不使用第一个映射,与第二个标签映射对应的验证图像的可靠来源在哪里?

0 投票
1 回答
1232 浏览

neural-network - 如何获取图像格式的 ILSVRC12 数据或如何创建 ilsvrc12_val_lmdb?

我正在尝试在 Caffe 中运行 imagenet 示例。在这个(https://github.com/BVLC/caffe/tree/master/examples/imagenet)页面中,他们说

我在哪里可以找到这些数据?

0 投票
1 回答
979 浏览

machine-learning - 为什么我的 inception-v3(在 Keras 中)的预测都是错误的?

我是一名 ML 初学者,只是使用 ImageNet 权重实现 inception-v3。这是我第一次尝试它。我的实现是在 Keras 中。我的预测都是错误的,我需要站起来,看看问题出在哪里。实际上很难找到使用 Keras 在线从上到下使用的 inception-v3 示例。大多数是关于迁移学习的教程。这是我的代码。

(168, 299, 3)

(1, 299, 299, 3)

预测:[[('n03047690', 'clog', 1.0), ('n01924916', '扁虫', 7.0789714e-11), ('n03950228', '投手', 2.1705252e-11), ('n02841315' , '双筒望远镜', 4.1622389e-13), ('n06359193', 'web_site', 3.8697981e-16)]]

有人可以建议这个最基本的实现是如何错误的。也许我的输入形状不正确?

0 投票
3 回答
1592 浏览

validation - ImageNet:ILSVRC2012 中的验证类别

我正在使用flow_from_directoryin ImageDataGeneratorfromkeras来训练我的卷积神经网络。我从这个链接下载了 ILSVRC2012 图像,我正在尝试训练和验证我的网络。训练文件夹中有图像分类在相应的文件夹中,但验证图像没有分类到文件夹中,这不让我flow_from_directory用来测试验证的准确性。是否有任何简单的方法可以将验证数据分类到相应的文件夹中?

0 投票
1 回答
494 浏览

flow - 无法运行 imagenet 下载和预处理脚本(问题 202 中的建议不起作用)

我在这里按照说明操作:https ://github.com/tensorflow/models/tree/master/inception

运行后bazel-bin/inception/imagenet_train --num_gpus=1 --batch_size=32 --train_dir=/tmp/imagenet_train --data_dir=/tmp/imagenet_data

我收到以下错误:

bazel-bin/inception/download_and_preprocess_imagenet.runfiles/inception/inception/data/download_imagenet.sh:第 105 行:bazel-bin/inception/download_and_preprocess_imagenet.runfiles/inception/inception/data/imagenet_lsvrc_2015_synsets.txt:没有这样的文件或目录”

我在 202 年看到了这个帖子,但是在 work_dir 中“在 /inception 之前添加 main”的建议并没有解决问题。下面是输出ls -l -R bazel-bin/inception/download_and_preprocess_imagenet.runfiles/

0 投票
1 回答
2200 浏览

wordnet - Wordnet 3.0 同义词集的 ImageNet 索引

在 Caffe 中使用 ImageNet Resnet-50,预测会给出一个 1000 维的向量。有没有一种简单的方法可以将此向量的索引转换为 Wordnet 3.0 同义词集标识符?例如,415:'bakery, bakeshop, bakehouse' 是“n02776631”?

我注意到一个类似的问题Get ImageNet label for a specific index in the 1000-dimensional output tensor in torch已被询问与索引关联的人类可读标签和指向可用索引到标签映射的答案在这个网址中:https ://gist.github.com/maraoz/388eddec39d60c6d52d4

从人类可读的标签中,我想可以通过此页面上的标签到同义词映射找到 Wordnet 同义词集标识符:http: //image-net.org/challenges/LSVRC/2015/browse-synsets但我是想知道这是否已经完成?

0 投票
0 回答
283 浏览

image-processing - TensorFlow 图像分类器精度

我刚刚按照这个很棒的教程学习了如何使用 Tensorflow 快速重新训练 ImageNet 和制作图像分类器。我做了分类器,效果很好。据我了解,Tensorflow 将提供的数据集自行划分为训练、测试和验证——或者至少它使用这个脚本。我以前用过sklearn,你总能找到模型的准确性。

我的问题是,我如何才能找到 Tensorflow 中训练模型的准确率百分比,特别是对于图像分类器?

非常感谢。

0 投票
1 回答
1592 浏览

tensorflow - 使用预训练模型的图像大小 Tensorflow 对象检测

我看到 tensorflow 对象检测 API 允许自定义输入的图像大小。我的问题是这如何与预训练的权重一起工作,这些权重通常在 224*224 图像或有时 300*300 图像上进行训练。

在我使用的其他框架中,例如 caffe rfcn、yolo 和 keras ssd,图像被缩小以适应带有预训练权重的标准尺寸。

tf 使用的预训练权重是 300*300 输入大小吗?如果是这样,我们如何使用这些权重对自定义图像尺寸进行分类?tf 是否缩小到各自的权重大小?