我对使用 caffe 比较陌生,并且正在尝试创建可以(稍后)调整的最小工作示例。我可以毫无困难地将 caffe 的示例与 MNIST 数据一起使用。我下载了 image-net 数据(ILSVRC12)并使用 caffe 的工具将其转换为 lmdb 数据库,使用:
$CAFFE_ROOT/build/install/bin/convert_imageset -shuffle -encoded=true top_level_data_dir/ fileNames.txt lmdb_name
创建包含编码 (jpeg) 图像数据的 lmdb。原因是编码后的 lmdb 约为 64GB,而未编码的约为 240GB。
我描述网络的 .prototxt 文件是最小的(一对内积层,主要是从 MNIST 示例中借来的——这里不是为了准确,我只是想要一些工作)。
name: "example"
layer {
name: "imagenet"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
}
data_param {
source: "train-lmdb"
batch_size: 100
backend: LMDB
}
}
layer {
name: "imagenet"
type: "Data"
top: "data"
top: "label"
include {
phase: TEST
}
transform_param {
scale: 0.00390625
}
data_param {
source: "test-lmdb"
batch_size: 100
backend: LMDB
}
}
layer {
name: "ip1"
type: "InnerProduct"
bottom: "data"
top: "ip1"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 1000
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "relu1"
type: "ReLU"
bottom: "ip1"
top: "ip1"
}
layer {
name: "ip2"
type: "InnerProduct"
bottom: "ip1"
top: "ip2"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 1000
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "accuracy"
type: "Accuracy"
bottom: "ip2"
bottom: "label"
top: "accuracy"
include {
phase: TEST
}
}
layer {
name: "loss"
type: "SoftmaxWithLoss"
bottom: "ip2"
bottom: "label"
top: "loss"
}
当 train-lmdb 未编码时,此 .prototxt 文件可以正常工作(准确性极差,但 caffe 不会崩溃)。但是,如果 train-lmdb 已编码,则会出现以下错误:
data_transformer.cpp:239] Check failed: channels == img_channels (3 vs. 1)
问题:我必须在 .prototxt 文件中设置一些“标志”来表明 train-lmdb 是编码图像吗?(可能必须为测试数据层 test-lmdb 提供相同的标志。)
一点研究:
用谷歌四处寻找,我发现了一个看起来很有希望的已解决问题。但是,将其设置'force_encoded_color'
为 true 并没有解决我的问题。
我还发现这个答案对于创建 lmdb(特别是启用编码的说明)非常有帮助,但是,没有提到应该做什么,以便 caffe 知道图像已编码。