问题标签 [caffe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android caffe 构建的演示显示错误
作为Android NDK Caffe的新手,我想在我的 Android 项目中使用内置版本。我尝试运行这个构建的示例演示,但在运行时,它显示以下内容:
(应用程序崩溃)
cuda - Ubuntu 14.04 上的 Caffe 安装问题
我在双启动笔记本电脑(GTX 860M,Windows 7 + Ubuntu 14.04.2)上成功安装了 caffe。所有的测试都顺利通过。但是,当我重新启动时,ubuntu 卡在了打开的屏幕上(带有 ubuntu 徽标和五个红点的屏幕)。不知道该怎么办。
有没有人遇到过同样的问题?我认为显卡驱动程序启动有问题。我安装了最新的 CUDA 7 Toolkit,内置了 nvidia 驱动程序。由于在我重新启动之前通过了所有测试,因此驱动程序似乎一旦成功启动就可以工作。
卡住的屏幕是这样的:http: //i.stack.imgur.com/pRtEF.jpg
python - 将 caffe 与 c++ 或 python 连接时出现问题
我读到的关于教程的内容是,您创建数据,然后使用 protobuf 编写模型,然后编写求解器文件。最后,您训练模型并获得生成的文件。所有这些都是通过命令行完成的。现在有两个问题
1)假设我现在有生成的模型,如何加载不在测试文件夹中的新图像并执行前向传递。应该通过命令行还是通过某种语言(c++、python)来完成?
2)我想上面是一种方法。训练分类器的最佳方法是什么(命令行训练/或通过编码)以及如何在代码中使用生成的模型文件(训练后)。
我想将 caffe 与我的代码进行交互,但我找不到一个简短的教程,它可以让我逐步了解任何数据库,比如 mnist,并且模型不需要像 LeNet 那样复杂,但是一个简单的全连接层将也这样做。但是谁能告诉我如何使用 C++ 或 python 编写一个简单的代码并从头开始训练任何数据集。
用于训练分类器并使用它来使用 caffe 预测新数据的示例 C++/python 代码也将不胜感激。
python - Caffe 网络的损失非常低,但测试的准确性非常差
我对咖啡有点陌生,我遇到了一些奇怪的行为。我正在尝试在 bvlc_reference_caffenet 上使用微调来完成 OCR 任务。
我采用了他们的预训练网络,将最后一个 FC 层更改为我拥有的输出类的数量,然后重新训练。经过几千次迭代后,我的损失率约为 0.001,并且在网络测试时准确率超过 90%。也就是说,当我尝试自己在数据上运行我的网络时,我得到的结果很糟糕,不超过 7% 或 8%。
我用来运行网络的代码是:
关于为什么这个性能可能如此糟糕的任何想法?
谢谢!
PS:一些可能有用或没用的附加信息。如下所示进行分类时,分类器似乎确实偏爱某些类。即使我有一个 101 类问题,它似乎最多只能分配 15 个不同的类
PPS:我也相当肯定我没有过度拟合。我一直在使用快照对此进行测试,它们都表现出同样糟糕的结果。
image-processing - 寻找相似的图像
我想找到与另一张图片相似的图片。所以在研究之后我发现了两种方法首先是两种方法通过它的属性来表示图像,比如
length = full
pattern = check
color = blue
但这种方法的局限性在于,我将无法获得一个包含所有特征的详尽数据集。
我发现的第二种方法是提取特征并进行特征映射。所以我决定将深度卷积神经网络与 caffe 结合使用,以便通过使用任何现有模型,我可以学习特征,然后执行特征匹配或其他一些操作。我只是想接受一个一般性的建议,什么是其他好的方法,值得一试。而且由于我刚刚开始使用 caffe,所以任何人都可以提供一般指导方针如何解决 caffe 的问题?提前致谢
我看着 phash 只是很好奇它会发现相同的图像,就像有轻微的强度变化和其他一些变化一样,它也可以提供相同的类型(语义上),就像蓝色和红色条纹的 T 恤一样黑白条纹相似,是否会考虑衬衫长度,领型等
cuda - 单个程序出现在两个 GPU 卡上
我有多个 GPU 卡(NO.0,NO.1 ...),每次我在 NO.1 或 2 ...(0 除外)卡上运行caffe进程时,它都会在 NO 上使用 73MiB。 0 卡。
例如,在下图中,进程 11899 将在 NO.0 卡上使用 73MiB,但它实际上在 NO.1 卡上运行。
为什么?我可以禁用此功能吗?
lua - Torch Caffe Lua - 如何让 Flickr 样式示例工作?
使用Torch Caffe 绑定。我想对Flickr Style 示例进行预测。我有经过训练的模型和下面的代码。我如何必须更改代码才能使其工作?
现在要输出的是具有 20 倍 NaN 值的 FloatTensor [torch.FloatTensor,尺寸为 20x1x1]。
machine-learning - 将回归层添加到 caffe
我已经实现了一个基于深度学习的微笑检测系统。最底层是系统的输出,根据人的微笑量有10个输出。
我想用回归层将这十个输出转换为 1 到 10 范围内的数字输出。
我怎样才能在咖啡中做到这一点?
谢谢
deep-learning - 丢弃层被忽略 - “警告:升级 V1LayerParameter 时遇到一个或多个问题”
我正在尝试基于 Imagenet 示例添加一个 dropout 层(请参见下面的代码)。但是,它似乎被忽略了,当我训练模型并收到下面的警告消息时,它没有被打印为网络的一部分。我安装了最新版本的 caffe。我应该怎么做才能正确包含它?
辍学层:
训练日志:
caffe - Caffe: Understanding expected lmdb datastructure for blobs
I'm trying to understand how data is interpreted in Caffe. For that I've taken a look at the Minst Tutorial Looking at the input data definition:
I've now looked at the mnist_train_lmdb and taken one of the entries (shown in hex):
(I've added the line breaks here to be able to see the '7' digit.)
Now my question is, where this format is described? Or put differently where is defined that the first 36 bytes are some sort of header and the last 8 bytes have some label correspondence?
How would I go about constructing my own data? Neither Blob Tutorial nor Layers Definition give much away about required formats. My intention is not to use image data, but time series
Thanks!