问题标签 [conv-neural-network]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
643 浏览

neural-network - Caffe 准确率大于 100%

我正在构建一个,但是,当我使用lenet 示例中提供的自定义训练函数且批量大于 110 时,我的准确度大于 1(100%)。

如果我使用批量大小 32,我将获得 30% 的准确率。批量大小等于 64 我的净精度为 64。批量大小等于 128,精度为 1.2。

我的图像是 32x32。训练数据集:56 张中性人脸图像。60 张惊喜面孔的图像。测试数据集:15 张中性人脸图像。15 张惊喜面孔的图像。

这是我的代码:

那么,我的代码有什么问题?

0 投票
2 回答
5194 浏览

python - Caffe,如何从预训练网络进行预测

我正在使用此代码加载我的网络:

我对三行有疑问。

1-mean=np.load(caffe_root + 'python/caffe/imagenet/ilsvrc_2012_mean.npy').mean(1).mean(1)

什么意思?我应该使用这个平均值还是另一个?如果是,我在哪里可以获得自定义平均值?我正在使用自定义数据集。

2-channel_swap=(2,1,0)

channel_swap 是什么意思?再说一次,我应该使用这个值还是自定义值?

最后一个

3-raw_scale=255

什么是 raw_scale?我应该使用什么值?

我正在使用Cohn Kanade数据集。所有图像均为 64x64 且为灰度。

0 投票
2 回答
10686 浏览

machine-learning - 如何从 train.prototxt 创建 caffe.deploy

这是我的train.prototxt。这是我的deploy.prototxt

当我想加载我的部署文件时,我收到此错误:

所以,我删除了数据层:

比,我bottom: "data"从 conv1 层中删除。

之后,我得到了这个错误:

bottom: "label"从损失层中删除。我得到了这个错误:

我应该怎么做才能修复它并创建我的部署文件?

0 投票
0 回答
2377 浏览

deep-learning - Caffe 训练迭代损失为 -nan

我正在尝试使用我自己的自定义数据来实现FCN-8 。在训练时,从头开始,我看到我的损失 = -nan。

有人可以建议出了什么问题,我该如何纠正?我的solver.prototxt如下:-

train_val.prototxt 与上面链接中给出的相同。我的自定义图像大小为 3x512x640,标签为 1x512x640。标签有 11 种不同类型。

0 投票
1 回答
6845 浏览

machine-learning - 咖啡 | solver.prototxt 值设置策略

在 Caffe 上,我正在尝试实现一个完全卷积网络来进行语义分割。我想知道是否有特定的策略来设置'solver.prototxt'以下超参数的值:

  • test_iter
  • 测试间隔
  • iter_size
  • 最大迭代器

这是否取决于您为训练集拥有的图像数量?如果是这样,怎么做?

0 投票
3 回答
1825 浏览

machine-learning - 通过跨通道局部响应归一化 (LRN) 层的反向传播算法

我正在研究复制神经网络。我试图了解标准图层类型的工作原理。特别是,我无法在任何地方找到关于跨通道归一化层在后向传递中的行为的描述。

由于规范化层没有参数,我可以猜测两个可能的选项:

  1. 来自下一个(即后来的)层的误差梯度被向后传递而不对它们做任何事情。

  2. 误差梯度的归一化方式与前向通道中激活跨通道的归一化方式相同。

我想不出你为什么会根据任何直觉做一个而不是另一个的原因,因此为什么我需要一些帮助。

编辑1:

该层是 caffe 中的标准层,如此处所述http://caffe.berkeleyvision.org/tutorial/layers.html(请参阅“本地响应规范化 (LRN)”)。

该层在前向传递中的实现在 alexNet 论文的第 3.3 节中进行了描述:http: //papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

编辑2:

我相信这里的 Torch 库中都描述了前向和后向传递算法:https ://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua

并在此处的 Caffe 库中:https ://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp

请熟悉这两种方法的任何人都可以将向后传递阶段的方法翻译成简单的英语吗?

0 投票
5 回答
22790 浏览

tensorflow - 在张量流中可视化卷积层的输出

我正在尝试使用函数在 tensorflow 中可视化卷积层的输出tf.image_summary。我已经在其他情况下成功地使用了它(例如可视化输入图像),但是在此处正确地重塑输出时遇到了一些困难。我有以下转换层:

所以 的输出h_conv1将具有形状[-1, img_size, img_size, 32]。只是使用tf.image_summary("first_conv", tf.reshape(h_conv1, [-1, img_size, img_size, 1]))不考虑 32 个不同的内核,所以我基本上在这里切片不同的特征图。

如何正确重塑它们?或者我可以使用另一个辅助函数来将此输出包含在摘要中吗?

0 投票
1 回答
1203 浏览

neural-network - 针对非方形输入微调 VGG 或 AlexNet

VGG 和 AlexNet 等需要正方形尺寸的固定图像输入 ( H== W)。如何微调或以其他方式执行网络手术,以便提供非平方输入?

供您参考,我正在使用 Caffe 并打算FC7为非方形图像输入提取特征。

0 投票
1 回答
3284 浏览

python - 一个可重用的 TensorFlow 卷积网络

我想重用Tensorflow“MNIST for Pros”CNN 示例中的代码。我的图像是 388px X 191px,只有 2 个输出类。原始代码可以在这里找到。我尝试通过仅更改输入和输出层来重用此代码,如下所示:

输入层

输出层

运行修改后的代码会给出一个模糊的堆栈跟踪:

0 投票
2 回答
85 浏览

python - 这段代码的输出是什么意思?

我以本教程为例来构建我的 caffe 自定义训练功能。在第 15 节有以下代码:

在第 8 行有一个ndarray(输出),这段代码的含义是什么,它是什么意思。是什么意思(niter, 8, 10)。为什么niter,为什么是 8,为什么是 10?我应该根据自己的数据集更改此数组吗?如果是,我应该使用什么尺寸?有人可以解释一下吗?