我正在尝试将我的数据(从hdf5格式的单个文件)写入多个文件,并且在串行执行任务时它可以正常工作。现在我想提高效率并使用multiprocessing
模块修改代码,但输出有时会出错。这是我的代码的简化版本。
import multiprocessing as mp
import numpy as np
import math, h5py, time
N = 4 # number of processes to use
block_size = 300
data_sz = 678
dataFile = 'mydata.h5'
# fake some data
mydata = np.zeros((data_sz, 1))
for i in range(data_sz):
mydata[i, 0] = i+1
h5file = h5py.File(dataFile, 'w')
h5file.create_dataset('train', data=mydata)
# fire multiple workers
pool = mp.Pool(processes=N)
total_part = int(math.ceil(1. * data_sz / block_size))
for i in range(total_part):
pool.apply_async(data_write_func, args=(dataFile, i, ))
pool.close()
pool.join()
并且data_write_func()
的结构是:
def data_write_func(h5file_dir, i, block_size=block_size):
hf = h5py.File(h5file_dir)
fout = open('data_part_' + str(i), 'w')
data_part = hf['train'][block_size*i : min(block_size*(i+1), data_sz)] # np.ndarray
for line in data_part:
# do some processing, that takes a while...
time.sleep(0.01)
# then write out..
fout.write(str(line[0]) + '\n')
fout.close()
当我设置N=1
时,效果很好。但是当我设置N=2
或N=4
时,结果有时会混乱(不是每次都!)。例如在data_part_1中我希望输出为:
301,
302,
303,
...
但有时我得到的是
0,
0,
0,
...
有时我会
379,
380,
381,
...
我是多处理模块的新手,发现它很棘手。如果有任何建议,请欣赏它!
答案 0 :(得分:6)
在修复fout.write
和mydata=...
后,Andriy建议您的程序按预期工作,因为每个进程都会写入自己的文件。这些过程无法相互混合。
你 probaby 想要做的是使用multiprocessing.map()
为你削减你的迭代(所以你不需要做block_size
个东西),加上它保证结果按顺序完成。我已经重新编写了代码以使用多处理映射:
import multiprocessing
from functools import partial
import pprint
def data_write_func(line):
i = multiprocessing.current_process()._identity[0]
line = [i*2 for i in line]
files[i-1].write(",".join((str(s) for s in line)) + "\n")
N = 4
mydata=[[x+1,x+2,x+3,x+4] for x in range(0,4000*N,4)] # fake some data
files = [open('data_part_'+str(i), 'w') for i in range(N)]
pool = multiprocessing.Pool(processes=N)
pool.map(data_write_func, mydata)
pool.close()
pool.join()
请注意:
data_write_func
,文件打开需要在父进程中完成。另外:您不需要手动执行close()
文件,操作系统会在退出python程序时为您执行此操作。现在,我想最后你想要将所有输出都放在一个文件中,而不是放在单独的文件中。如果您的输出行在Linux上低于4096字节(或在OSX上低于512字节,对于其他操作系统,请参阅here),您实际上只需打开一个文件(在附加模式下)并让每个进程只写入那个文件,因为这些大小以下写入保证是Unix的原子。
更新:
“如果数据作为数据集存储在hdf5文件中怎么办?”
根据hdf5 doc this works out of the box since version 2.2.0:
并行HDF5是HDF5库的一种配置,可让您跨多个并行进程共享打开的文件。它使用MPI(消息传递接口)标准进行进程间通信
因此,如果您在代码中执行此操作:
h5file = h5py.File(dataFile, 'w')
dset = h5file.create_dataset('train', data=mydata)
然后您可以从流程中访问dset并读取/写入它而无需采取任何额外措施。另请参阅this example from h5py using multiprocessing
答案 1 :(得分:2)
这个问题无法复制。这是我的完整代码:
#!/usr/bin/env python
import multiprocessing
N = 4
mydata=[[x+1,x+2,x+3,x+4] for x in range(0,4000*N,4)] # fake some data
def data_write_func(mydata, i, block_size=1000):
fout = open('data_part_'+str(i), 'w')
data_part = mydata[block_size*i: block_size*i+block_size]
for line in data_part:
# do some processing, say *2 for each element...
line = [x*2 for x in line]
# then write out..
fout.write(','.join(map(str,line))+'\n')
fout.close()
pool = multiprocessing.Pool(processes=N)
for i in range(2):
pool.apply_async(data_write_func, (mydata, i, ))
pool.close()
pool.join()
data_part_0
的示例输出:
2,4,6,8
10,12,14,16
18,20,22,24
26,28,30,32
34,36,38,40
42,44,46,48
50,52,54,56
58,60,62,64
答案 2 :(得分:-2)
多处理不能保证不同线程之间代码执行的顺序,2个进程按其创建顺序的相反顺序执行是完全合理的(至少在windows和主流linux上)
通常在使用并行化时,您需要工作线程生成数据然后将数据聚合到线程安全数据结构中并将其保存到文件中,但是您在这里写入一个文件,大概是在对于一个硬盘,您是否有任何理由相信通过使用多个线程可以获得任何额外的性能?