问题标签 [conv-neural-network]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 使用 DeepLearnToolbox 预测单个图像的标签
我正在使用DeepLearnToolbox来做 CNN(卷积神经网络)。
我已经成功计算了我的网络并且我已经看到了我的准确性,但我的问题是:
如何将一张图像查询到网络中以预测标签?
我想要得到的最终结果是预测的标签,可能每个标签的错误都没有预测。
谢谢你。
这是我用于测试准确性的代码:
python - 在 Mac (Python) 上将文件复制到 RAM
我正在运行来自另一个构建 convnet 的用户的一些代码。早期的函数尝试/dev/shm
通过运行将训练和测试图像复制到:
我收到错误:
/dev/shm
有没有可以在我的 Mac 上使用的替代方案?
我使用以下信息在 OSX 中创建了一个 ramdisk:
http://osxdaily.com/2007/03/23/create-a-ram-disk-in-mac-os-x/
然后: ls -lah /dev/rdisk1 crw------- 1 xxxx 员工 1, 4 5 月 27 日 16:26 /dev/rdisk1
但是,当我尝试写入它时,我得到了错误:
希望你能帮忙。谢谢。
matlab - 将数据转换为 caffe 的 leveldb
我在 Matlab 中有一堆二维数据矩阵(没有图像数据,但有一些单精度数据)。
有谁知道如何将 2D matlab 矩阵转换为 caffe 训练自定义神经网络所需的 leveldb 格式?
我已经完成了关于如何训练图像(使用 imagenet 架构)和 mnist(数字识别数据集)的教程。但是在后一个示例中,他们没有展示如何创建相应的数据库。在教程中已经提供了数据库。
python - 在 Python 错误中将卷积神经网络与千层面一起使用
我使用了 Daniel Nouri 在他的同名网站上提供的框架。这是我使用的代码。看起来不错,我所做的唯一更改是将 output_nonlinearity=lasagne.nonlinearities.softmax 和回归更改为 False。否则它看起来很简单
但是在运行它时我得到了这个 NaN
提前致谢。
lua - 如何为torch7深度学习卷积神经网络示例准备数据?
我一直在尝试在我自己的数据集的 torch7( convolutionalneuralnetwork.lua )深度学习库中使用卷积神经网络示例。我有一个 100x100 二进制 jpg 图像的数据集,它们位于以下目录中:
/home/akshay/project/data/train -- 训练数据
/home/akshay/project/data/valid -- 验证数据
我已将数据集更改为 ImageSource 并在代码中进行了其他必要的更改:
但是当我运行代码时,出现如下错误:
1).我如何以不同的方式准备数据?
2).传递的参数是否错误以及如何更正?
neural-network - Keras / Theano:如何添加 Convolution2D 层?
我对如何理解如何添加卷积层有疑问。我试图添加卷积层,但出现此错误:
我试图了解什么是 nb_filter、stack_size、nb_row、nb_col 在卷积层上。
我的目标是复制 VGG 模型。
-- 我目前正在使用 Theano 和 keras。
请,任何提示表示赞赏。
image-processing - 人脸识别的误报
我有一个根据 Mark Ruffalo 的图像(裁剪的脸)训练的 CNN。对于我的正面类,我有大约 200 张图像,对于负面数据点,我采样了 200 个随机人脸。
该模型具有高召回率但非常低的精度。我怎样才能提高精度?我也受到我拥有的正面图像数量的限制。我准备在这个权衡中妥协召回。
我尝试增加负样本的数量,但这会引入一种形式的偏差,并且模型开始将所有内容分类为负样本以达到局部最优。
我将我的 CNN 建立在过大的基础上:
请帮助
matlab - 如何解决 cudaSetDevice 错误并正确运行此深度学习代码?
我在面部表情识别上使用以下 GPU 代码: http ://code.google.com/p/deep-learning-faces/
我的系统与作者的系统相同,但 CUDA 版本(5.5)比作者的(5.0)略高。
当我运行“script_face_exp.m”时,它说“Error using mexcuConvNNoo Assertion Failed: cudaSetDevice Error!”。这是由:cudaErrorInvalidDevice 引起的,这表明用户提供的设备序号与有效的 CUDA 设备不对应。
但我可以使用 GPU 进行计算,并且基于 theano 的代码在 GPU 上运行良好。
如何解决使用 GPU 正确运行代码?
machine-learning - 带有 Caffe 和负图像的卷积神经网络
在 Caffe 深度学习(或任何 CNN 框架)上训练一组类(假设 #clases (类数) = N)并且我对caffemodel进行查询时,我得到该图像可能正常的概率百分比.
所以,让我们拍一张类似的 Class 1 的照片,我得到了结果:
1.- 90%
2.- 10%
休息... 0%
问题是:当我随机拍摄一张照片(例如我的环境)时,我不断得到相同的结果,其中一个类占主导地位(>90% 概率)但它不属于任何类。
所以我想听到的是那些经历过这种情况并且会解决如何处理对神经网络的无意义输入的人的意见/答案。
我的目的是:
- 用负图像再训练一个额外的类(比如train_cascade)。
- 使用 TRAIN 集中的所有正图像和 VAL 集中的负图像再训练一个额外的类。
但是我的目的没有任何科学依据来执行它们,这就是我问你这个问题的原因。
你会怎么做?
非常感谢您提前。
拉斐尔。
python - Finding gradient of a Caffe conv-filter with regards to input
I need to find the gradient with regards to the input layer for a single convolutional filter in a convolutional neural network (CNN) as a way to visualize the filters.
Given a trained network in the Python interface of Caffe such as the one in this example, how can I then find the gradient of a conv-filter with respect to the data in the input layer?
Edit:
Based on the answer by cesans, I added the code below. The dimensions of my input layer is [8, 8, 7, 96]
. My first conv-layer, conv1
, has 11 filters with a size of 1x5
, resulting in the dimensions [8, 11, 7, 92]
.
As you can see from the output, the dimensions of the arrays returned by net.backward()
are equal to the dimensions of my layers in Caffe. After some testing I've found that this output is the gradients of the loss with regards to respectively the data
layer and the conv1
layer.
However, my question was how to find the gradient of a single conv-filter with respect to the data in the input layer, which is something else. How can I achieve this?