问题标签 [resnet]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
neural-network - 如何改进卷积网络的特征以进行图像检索?
我有3节课。(50k 用于训练,12k 用于验证)通过使用预训练的 vgg16 和 resnet50,并冻结模型并仅在顶部训练密集层,我达到了 99% 的验证准确率。我应该通过解冻层来微调以改进功能,还是应该按原样使用这些功能?另外,vgg16 是比 Resnet50 更好的特征提取器还是我应该使用 Resnet 的特征?谢谢!
tensorflow - ResNet RGB 表示在 tensorflow-slim
我正在使用 tensorflow slim 加载预训练模型,如 vgg 和 resnet-50。因此对于 vgg , tf-slim 提供了一种加载 RGB 平均值的方法,例如:
我找不到与 resnets 类似的东西。还没有实施吗?我也知道一些像 py-torch 这样的库为每个模型提供了全局平均值。tf-slim 也是这样吗?
python - 在cntk中如何计算损失和度量
我是cntk和python的新手。我创建了一个基于 TrainResNet_CIFAR10.py 的 python 程序来训练 4736 个(64x64x3)图像并测试 4 个类的 2180 个图像。训练 160 个 epoch 后,我得到 loss = 0.663 和 metric = 29.37%。完成评估指标 = 18.94%。当我基于 CNTKLibraryCSEvalExamples.cs 评估训练模型以测试 2180 幅图像时,几乎所有 2180 幅都归为一类(第二类)。我的问题是:
- 我假设损失是从 cross_entropy_with_softmax(z, label_var) 计算出来的,度量标准是使用分类错误(z, label_var)。我是否正确,它们实际上是如何确定的?
- 指标 = 29.37% 和评估指标 = 18.94% 是什么意思?它们分别来自训练和测试图像吗?
- 什么可能导致完全错误的评估结果?
任何帮助将不胜感激。
computer-vision - tensorflow-slim 中 ResNet-50 中的图像居中
我在 tensorflow-slim 中使用 ResNet-50 模型来提取特征。我的问题是,在输入图像之前,我是否需要根据一些标准的 ResNets-50 平均值将图像居中?我知道对于 vgg-19 tf-slim 提供了使用中
_mean_image_subtraction(image, means)
定义的居中选项vgg_preprocessing.py
。但我找不到 ResNets 的任何此类文件或函数。
python - Keras model.predict 总是 0
我正在使用 keras 应用程序通过 resnet 50 和 inception v3 进行迁移学习,但是在预测时总是得到[[ 0.]]
以下代码用于二进制分类问题。我也尝试过 vgg19 和 vgg16 但它们工作正常,它只是 resnet 和 inception。数据集是 50/50 拆分。而且我只是更改model = applications.resnet50.ResNet50
每个模型的代码行。
下面是代码:
注意这model_final.evaluate_generator(validation_generator, nb_validation_samples)
提供了一个预期的准确度,比如 80%,它只是预测总是 0。
只是觉得奇怪的是 vgg19 和 vgg16 工作正常,但 resnet50 和 inception 却不行。这些模型是否需要其他东西才能工作?
任何见解都会很棒。
提前致谢。
machine-learning - 如何在 mask-rcnn 中使用 resnet50 预训练我的图像
我正在研究 mask r-cnn。我想知道如何在 mask-rcnn 中使用 resnet50 预训练我的图像(刀、沙发、婴儿、.....)。我很难在 github 中找到它,但我不能。请任何知道如何处理它的人帮助我。
python - 在 Keras 中定义模型
我是深度学习和 Keras 的新手。当用于在 Keras 中定义模型时,预训练权重初始化 weights='imagenet' 是什么意思?
谢谢!
python - to_proto 错误(caffe-master/python/caffe/net_spec.py)——“LayerParameter”对象没有属性“num_output”
我正在尝试使用 pycaffe 创建 resnet 的 train.protxt ,但出现此错误:
文件“/data/hjy1312/Downloads/caffe-master/python/caffe/net_spec.py”,第 140 行,在 _to_proto
inp._to_proto(layers, names, autonames)
文件“/data/hjy1312/Downloads/caffe-master/ python/caffe/net_spec.py”,第 97 行,在 _to_proto
返回 self.fn._to_proto(layers, names, autonames)
文件“/data/hjy1312/Downloads/caffe-master/python/caffe/net_spec.py”,行162,在_to_proto中
assign_proto(layer, k, v)
文件“/data/hjy1312/Downloads/caffe-master/python/caffe/net_spec.py”,第64行,在assign_proto中
is_repeated_field = hasattr(getattr(proto, name), 'extend')
AttributeError: 'LayerParameter' 对象没有属性 'num_output'
设置断点并运行我的代码后,我发现我的代码错误是这一行:
但是我不知道to_proto有什么问题,有人可以帮助我吗?
非常感谢!
deep-learning - 如何从pytorch中预训练的CNN的特定层获取输出
我已经在 imagenet 数据集上预训练了 CNN(RESNET18),现在我想要的是从特定层获取输入图像的输出,
例如。
我的输入图像是,FloatTensor(3, 224, 336)
我在我的 resnet 模型中发送了一批size = 10
,现在我想要的是 model.layer4 返回的输出,
现在我尝试的是out = model.layer4(Variable(input))
,但它给了我输入尺寸不匹配错误(如预期),这是返回的确切错误
RuntimeError:需要输入维度 4 和 input.size[1] == 64,但输入的形状为:[10 x 3 x 224 x 336],位于 /Users/soumith/miniconda2/conda-bld/pytorch_1501999754274/work/火炬/lib/THNN/generic/SpatialConvolutionMM.c:47
所以我很困惑,现在如何继续获得我的 layer4 输出
PS:我的最终任务是将layer4输出和全连接层输出结合在一起(CNN中的Tweeking,一种门控CNN),所以如果有人对这种情况有任何见解,请告诉我,也许我的上述方法不正确
neural-network - 微调resnet50时如何冻结一些图层
我正在尝试使用 keras 微调 resnet 50。当我冻结 resnet50 中的所有图层时,一切正常。但是,我想冻结一些 resnet50 层,而不是全部。但是当我这样做时,我得到了一些错误。这是我的代码:
错误如下:
谁能给我一些关于我应该用 resnet50 冻结多少层的帮助?