2

我正在使用 C++ HDF api 编写一个 HDF5 文件,并与 H5py Python 库进行一些比较。

在 H5py Python 库,当使用 GZIP 或 LZF 等压缩算法时,默认应用自动分块。

相同的条件是否适用于 HDF5 C++ api?如果是这样,我如何证明在将压缩算法(例如 GZIP)应用于数据集时自动创建了块。

4

1 回答 1

1

根据https://www.hdfgroup.org/HDF5/faq/compression.html

要将压缩过滤器应用于数据集,必须使用分块数据集存储布局创建它。

你必须手动完成:

1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.
于 2016-06-20T14:07:48.627 回答