10

这可能是一个愚蠢的问题,但我还没有在熊猫文档或其他地方找到答案。之前在这里问过同样的问题。但唯一的答案是查看 pandas 文档,正如我所说,它没有为这个问题提供答案。

我希望能够构建一个包含多个数据集的 hdf 文件。关闭此 hdf 后,我希望能够列出其中包含的每个数据集。例如:

import pandas as pd
import numpy as np

store = pd.HDFStore('test.h5')
df1 = pd.DataFrame(np.random.randn(10,2), columns=list('AB')
df2 = pd.DataFrame(np.random.randn(10,2), columns=list('AB')
store['df1'] = df1
store['df2'] = df2
print(store)

回报:

<class 'pandas.io.pytables.HDFStore'>
File path: test.h5
/df1           frame          (shape->[10,2])
/df2           frame          (shape->[10,2])

但是,如果您关闭 hdfstore.close()然后尝试使用pd.read_hdf()以下错误返回来读取它:

ValueError: key must be provided when HDF contains multiple datasets.

有没有办法返回所有这些数据集的列表?

提前感谢您的帮助!

4

1 回答 1

11

就在这里。

store = pd.HDFStore('test.h5')
print(store)

<class 'pandas.io.pytables.HDFStore'>
File path: test.h5
/df1           frame          (shape->[10,2])
/df2           frame          (shape->[10,2])
于 2016-02-25T22:27:14.947 回答