我需要一个用于在线目录的数据库;如果每个产品可能有一个数据集。和一个简单的数据库;这就是我喜欢 h5py 的原因。
分组的方法visititems
对于大文件来说并不快。
import h5py
#in memory database. Not relevant for this question, same speed. Yes.
database = h5py.File('db01h5', driver='core', backing_store=False)
#example of 10000 datasets with a deep of 4 group, file/x10/x10/x10/x10dset
for v1 in ('abcdefghij'):
for v2 in ('abcdefghij'):
for v3 in ('abcdefghij'):
for v4 in ('0123456789'):
database['/' + v1 + '/' + v2 + '/' + v3 + '/' + 'dset' + v4] = (1, 2, 3)
def fu01(a1, a2):
pass
#visititems applies function fu01(name, object) to each group and dataset
database.visititems(fu01)
使用不评估任何内容的函数(通过)“database.visititems(fu01)”需要 5 秒。使用基本参数进行过滤需要 x2。
我的问题是如何搜索一个大型或非常大的 h5py 数据库按特征过滤,并且非常快(10.000 个产品不到 0.1 秒)。
h5py/hdf5 是正确的方法,还是需要像 sqlite3 这样的 sql 数据库?
或者,当需要速度时,所有这些都必须在同一个数据集中?以树路径为一个元素。例如:
database['dataset'] = [['root/categorie/subcategorie/productname'], ['2'], ['10$'], ['blue']]
然后按一个“列”(高级切片)过滤所有产品。
我是数据库新手,目前我对在内存中工作的数据库不感兴趣,比如 reddis 或类似的;因为很难同步数据的变化。但是如果没有其他解决方案...