问题标签 [imagenet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
label - 获取torch中1000维输出张量中特定索引的ImageNet标签
对于带有猫图像的 ResNet 模型的 Facebook 实现,我有前向传递的输出张量。那是一个具有分类概率的 1000 维张量。使用torch.topk我可以获得输出张量中的前 5 个概率及其索引。现在我想查看那些最可能的索引的人类可读标签。
我在网上搜索了标签列表(显然也称为 sysnets),只发现了这个:http: //image-net.org/challenges/LSVRC/2015/browse-synsets
我使用行号作为标签索引将这些标签放在一个文件中,当我使用两个不同的猫图像运行网络时,我得到“螺丝刀”作为两者的最高猜测。如果我按字母顺序对标签文件进行排序,我会得到两者的“电影”。
这似乎是将索引转换为标签的问题,对吧?所以......问题是: 如何正确地将网络输出张量中的索引映射到 Imagenet 标签?
caffe - Caffe:为什么在 Imagenet 模型中 fc6 的激活维度是 4096?
我正在查看 Imagenet 训练模型(ILSVRC 挑战)中的 pool5 层,其输出大小为 256*6*6(~9000),之后有一个 fc6 层,其 num_outputs 为 4096。谁能解释一下 4096 是如何选择的?
download - ImageNet ILSVRC2012 截断的 tar 存档
我已经从 ImageNet ILSVRC2012 下载了图像数据并保存到此站点的硬盘中:http ://www.image-net.org/challenges/LSVRC/2012/nonpub-downloads 。我在 OSX 上工作。当我这样做时tar -xvf ILSVRC2012_img_train.tar
,我有这个错误:
有谁知道如何解决它?我试图直接通过网站下载这个同义词,但是当我重新使用时tar -xvf ILSVRC2012_img_train.tar
,我遇到了同样的问题。谢谢
deep-learning - VGG:类别的顺序?
我正在使用带有 Fast-RCNN 的 ILSVRC 训练的 VGG-16 网络。
您可以获得一个 1000 维矩阵,用于表示 ILSVRC 中 1,000 个类别中的每一个的概率。
但是,我无法找出矩阵中的哪一列对应于哪个类。
例如,我想知道 final_prob[2] 对应的是人还是车。
每年都有 ILSVRC 的课程列表(http://image-net.org/challenges/LSVRC/2014/browse-synsets)
但矩阵似乎不是按这个顺序排列的。
我在哪里可以找到矩阵中的条目如何映射到类?
neural-network - 裁剪/缩放 ImageNet 图像
ImageNet 图像都是不同大小的,但神经网络需要固定大小的输入。
一种解决方案是采用与图像一样大的裁剪尺寸,以图像的中心点为中心。这可行,但有一些缺点。图像中感兴趣对象的重要部分经常被切掉,甚至在某些情况下,正确的对象完全丢失,而属于不同类别的另一个对象可见,这意味着您的模型将针对该图像进行错误的训练.
另一种解决方案是使用整个图像并将其零填充到每个图像具有相同尺寸的位置。不过,这似乎会干扰训练过程,并且模型将学会在图像边缘附近寻找垂直/水平的黑色斑块。
一般是做什么的?
deep-learning - 实现 GoogleNet 时的混淆预测
我在检测和本地化过程中使用了 GoogleNet 的 Caffe 实现,可从https://github.com/BVLC/caffe/tree/master/models/bvlc_googlenet获得。我在我自己的细粒度分类任务中使用这个网络进行迁移学习取得了巨大的成功,但我在使用开箱即用的实现时遇到了很多困难。使用稍微调整的deploy.prototxt版本,批量大小从 10 减少到 1,我预测此目录中包含的图像的类。
这些图像直接取自 ImageNet 训练集。有趣的是,网络以高度的置信度为每一对分配相同的标签,但这些标签似乎与ImageNet 提供的标签完全不一致。网络似乎正在工作,但也许我引用了错误的类标签映射?非常感谢您所有 Caffe/ImageNet 专家的任何帮助!
python - Anaconda Tensorflow 中缺少 ImageNet(Inception v3)模型?
我通过使用 pip 的说明在 Linux 上安装了带有 Anaconda Python 3.5 的 Tensorflow。
现在我正在尝试按照说明探索应该包含的 ImageNet 模型。
激活condatensorflow
环境后,我导航到以下目录,我认为它应该位于该目录,并列出了文件和目录。但是我没有看到应该在其中的imagenet
目录或脚本:classify_image.py
deep-learning - 为什么 googlenet (inception) 在 ImageNet 数据集上运行良好?
有人说inception在ImageNet数据集上效果很好的原因是:ImageNet数据集中的原始图像分辨率不同,使用的时候resize到相同大小。所以能处理不同分辨率的inception非常适合ImageNet。这个描述是否属实?谁能给出更详细的解释?我对此感到非常困惑。非常感谢!
tensorflow - 如何使用model.ckpt和inception v-3来预测图像?
现在我正面临有关 inception v-3 和检查点数据的问题。我一直在通过我的图像更新 inception-v3 的检查点数据,阅读下面的 git 页面并成功制作新的检查点数据。
起初我以为只需稍微更改代码,我就可以使用这些检查点数据来识别新的图像数据,例如下面的 url。
https://www.tensorflow.org/versions/master/tutorials/image_recognition/index.html
起初我以为“classify.py”或其他东西会读取新的检查点数据,只需通过“pythonclassify.py -image something.png”,程序就可以识别图像数据。但它没有......我真的需要帮助。谢谢。