我这里有一个非常奇怪的问题。我有两个函数:一个读取使用h5py创建的HDF5文件,另一个创建一个新的HDF5文件,该文件连接前一个函数返回的内容。
def read_file(filename):
with h5py.File(filename+".hdf5",'r') as hf:
group1 = hf.get('group1')
group1 = hf.get('group2')
dataset1 = hf.get('dataset1')
dataset2 = hf.get('dataset2')
print group1.attrs['w'] # Works here
return dataset1, dataset2, group1, group1
创建文件功能
def create_chunk(start_index, end_index):
for i in range(start_index, end_index):
if i == start_index:
mergedhf = h5py.File("output.hdf5",'w')
mergedhf.create_dataset("dataset1",dtype='float64')
mergedhf.create_dataset("dataset2",dtype='float64')
g1 = mergedhf.create_group('group1')
g2 = mergedhf.create_group('group2')
rd1,rd2,rg1,rg2 = read_file(filename)
print rg1.attrs['w'] #gives me <Closed HDF5 group> message
g1.attrs['w'] = "content"
g1.attrs['x'] = "content"
g2.attrs['y'] = "content"
g2.attrs['z'] = "content"
print g1.attrs['w'] # Works Here
return mergedhf.get('dataset1'), mergedhf.get('dataset2'), g1, g2
def calling_function():
wd1, wd2, wg1, wg2 = create_chunk(start_index, end_index)
print wg1.attrs['w'] #Works here as well
现在的问题是,我可以访问由wd1,wd2,wg1和wg2创建和表示的新文件中的数据集和属性,我可以访问属性数据,但我不能做同样的事情。读取并返回。的值。
当我返回对调用函数的引用时,有人可以帮我获取数据集和组的值吗?
答案 0 :(得分:2)
问题出在read_file
,这一行:
with h5py.File(filename+".hdf5",'r') as hf:
这会在hf
块的末尾关闭with
,即read_file
返回时。发生这种情况时,数据集和组也会关闭,您无法再访问它们。
有(至少)两种方法来解决这个问题。首先,您可以像在create_chunk
中一样打开文件:
hf = h5py.File(filename+".hdf5", 'r')
并在关闭之前保留对hf
的引用,只要你需要它:
hf.close()
另一种方法是从read_file
中的数据集中复制数据,然后返回这些数据:
dataset1 = hf.get('dataset1')[:]
dataset2 = hf.get('dataset2')[:]
请注意,您无法对这些群组执行此操作。只要您需要对组进行操作,该文件就需要打开。