我在这里有点困惑:
据我了解,h5py 的.value
方法读取整个数据集并将其转储到一个数组中,这很慢且不鼓励(通常应替换为[()]
. 正确的方法是使用 numpy-esque 切片。
但是,我得到了令人讨厌的结果(使用 h5py 2.2.1):
import h5py
import numpy as np
>>> file = h5py.File("test.hdf5",'w')
# Just fill a test file with a numpy array test dataset
>>> file["test"] = np.arange(0,300000)
# This is TERRIBLY slow?!
>>> file["test"][range(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This is fast
>>> file["test"].value[range(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This is also fast
>>> file["test"].value[np.arange(0,300000)]
array([ 0, 1, 2, ..., 299997, 299998, 299999])
# This crashes
>>> file["test"][np.arange(0,300000)]
我想我的数据集很小,.value
不会显着影响性能,但是第一个选项怎么会这么慢呢?这里的首选版本是什么?
谢谢!
更新
看来我不够清楚,对不起。我知道.value
在切片时将整个数据集复制到内存中只检索适当的子部分。我想知道为什么在文件中切片比复制整个数组然后在内存中切片要慢。我一直认为 hdf5/h5py 是专门实现的,因此切片子部分总是最快的。