0

我目前正在玩caffe提供的lenet模型。

该示例(在 path/to/caffe/examples/mnist/convert_mnist_data.cpp 中提供了一个 c++ 程序来将 mnist 数据转换为 lmdb。

我写了一个python程序来做同样的事情,但是lmdb的大小(480MB)比c++转换的大小(60MB)要大得多。

测试准确率几乎相同(98%)。

我想知道为什么尺寸差异很大。

这是程序。我利用 mnist 模块 ( https://pypi.python.org/pypi/python-mnist/ ) 来帮助加载二进制 mnist 数据。

from mnist import MNIST
import numpy as np
import cv2
import lmdb
import caffe
mndata = MNIST('./data')
images, labels = mndata.load_training()
labels = np.array(labels)
images = np.array(images).reshape(len(labels), 28, 28).astype(np.uint8)

print type(images[0][0][0])

count = 0
env = lmdb.open('mnist_lmdb', map_size=1000*1000*1000)

txn = env.begin(write=True)
for i in xrange(len(labels)):
    print i
    datum = caffe.proto.caffe_pb2.Datum()
    datum.channels = 1
    datum.height = 28
    datum.width = 28
    datum.data = images[i].tobytes()
    datum.label = labels[i]
    str_id = '{:08}'.format(i)
    txn.put(str_id, datum.SerializeToString())

    count = count + 1

    if count % 1000 == 0:
        txn.commit()
        txn = env.begin(write=True)

if count % 1000 != 0:
    txn.commit()
env.close()

谢谢你。

4

1 回答 1

0
env = lmdb.open('mnist_lmdb', map_size=1000*1000*1000)

db大小主要取决于map_size,所以你可以减少map_size

于 2016-08-12T03:26:35.920 回答