如何在不将所有数据立即加载到内存的情况下numpy.reshape重塑HDF5文件中的巨大数据?

时间:2020-03-15 08:30:50

标签: python numpy dask hdf5 h5py

我有一个具有约4GB数据的h5文件。我想numpy.reshape数据,但不希望立即将所有数据加载到内存中,因为这会导致内存错误。我使用h5py来访问文件。谢谢!

编辑:我已经找到了Dask数组,它们非常适合完成这项任务!

0 个答案:

没有答案