在HDF5 C ++ api中使用GZIP压缩时,默认是否启用自动分块?

时间:2016-06-19 22:33:09

标签: python c++ hdf5 h5py hdf

我正在使用C ++ HDF api编写HDF5文件,并对H5py Python库进行一些比较。

在H5py Python库中,当使用GZIP或LZF等压缩算法时,默认应用autochunking

相同的条件是否适用于HDF5 C ++ api?如果是这样,我怎样才能证明当压缩算法(如GZIP)应用于数据集时会自动创建块。

1 个答案:

答案 0 :(得分:1)

根据https://www.hdfgroup.org/HDF5/faq/compression.html

  

要将压缩过滤器应用于数据集,必须使用分块数据集存储布局创建它。

你必须手动完成:

1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.