我正在使用C ++ HDF api编写HDF5文件,并对H5py Python库进行一些比较。
在H5py Python库中,当使用GZIP或LZF等压缩算法时,默认应用autochunking。
相同的条件是否适用于HDF5 C ++ api?如果是这样,我怎样才能证明当压缩算法(如GZIP)应用于数据集时会自动创建块。
答案 0 :(得分:1)
根据https://www.hdfgroup.org/HDF5/faq/compression.html:
要将压缩过滤器应用于数据集,必须使用分块数据集存储布局创建它。
你必须手动完成:
1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.