1

洗牌已经存在的 lmdb 中的数据(试图解决这个问题)。我检索了数据,改组并写回新的 lmdb。但是当我检查 lmdb 文件大小时,它会减小。旧 lmdb 文件大小:3792896,但新 lmdb 文件大小:2314240。

Python代码实现:

import lmdb
from random import shuffle

lst_data = [];

env = lmdb.open('val_3', readonly=True);
with env.begin() as txn:
    cursor = txn.cursor();
    for key, value in cursor:
        innerlst_data = [key,value];
        lst_data.append(innerlst_data);

shuffle(lst_data);

env1 = lmdb.open('mod_val_3');
with env1.begin(write=True) as txn1:
    for i in range(len(lst_data)):
        str_id = '{:08}'.format(i);
        txn1.put(str_id.encode('ascii'),lst_data[i][1]);

代码参考取自此处。任何建议/想法都会有所帮助。

4

2 回答 2

1

您可以使用mdb_stat来查看数据库中的条目数。这应该确认您的副本是否正常工作。

于 2016-06-05T19:49:25.990 回答
0

较新版本的 lmdb Python 包装器(至少从 1.3.0 开始)包括一个 environment copymethod,它有一个compact选项似乎可以做@Ravi 试图做的事情。像这样使用它(lmdb.open根据需要调整参数):

# Copy old database into new one with compacting
# Old database is ~34G from deleting 200k of 400k original records
with lmdb.open(
    "200k-split.lmdb",
    map_size=109951162777,
    subdir=False,
    meminit=False,
    map_async=True,
) as env:
    env.copy(path="200k-split-compacted.lmdb", compact=True)

然后,您可以验证压缩文件与原始文件具有相同数量的记录...

with lmdb.open(
    "200k-split.lmdb",
    map_size=109951162777,
    subdir=False,
    meminit=False,
    map_async=True,
) as env:
    print(env.stat())

# {'psize': 4096, 'depth': 3, 'branch_pages': 19, 
#  'leaf_pages': 2228, 'overflow_pages': 3600000, 'entries': 200000}
with lmdb.open(
    "200k-split-compacted.lmdb",
    map_size=109951162777,
    subdir=False,
    meminit=False,
    map_async=True,
) as env:
    print(env.stat())

# {'psize': 4096, 'depth': 3, 'branch_pages': 19,
#  'leaf_pages': 2228, 'overflow_pages': 3600000, 'entries': 200000}

...但是文件大小要小得多。

> ls -lah *.lmdb
-rw-rw-r-- 1 samueldy samueldy 14G Mar  2 03:31 200k-split-compacted.lmdb
-rw-r--r-- 1 samueldy samueldy 34G Mar  2 03:29 200k-split.lmdb

于 2022-03-02T10:45:11.447 回答