我正在使用 C++ HDF api 编写一个 HDF5 文件,并与 H5py Python 库进行一些比较。
在 H5py Python 库中,当使用 GZIP 或 LZF 等压缩算法时,默认应用自动分块。
相同的条件是否适用于 HDF5 C++ api?如果是这样,我如何证明在将压缩算法(例如 GZIP)应用于数据集时自动创建了块。
根据https://www.hdfgroup.org/HDF5/faq/compression.html:
要将压缩过滤器应用于数据集,必须使用分块数据集存储布局创建它。
你必须手动完成:
1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.