我有以下Python代码:
def workPackage(args):
try:
outputdata = dict()
iterator = 1
for name in outputnames:
outputdata[name] = []
for filename in filelist:
read_data = np.genfromtxt(filename, comments="#", unpack=True, names=datacolnames, delimiter=";")
mean_va1 = np.mean(read_data["val1"])
mean_va2 = np.mean(read_data["val2"])
outputdata[outputnames[0]].append(read_data["setpoint"][0])
outputdata[outputnames[1]].append(mean_val1)
outputdata[outputnames[2]].append(mean_val2)
outputdata[outputnames[3]].append(mean_val1-mean_val2)
outputdata[outputnames[4]].append((mean_val1-mean_val2)/read_data["setpoint"][0]*100)
outputdata[outputnames[5]].append(2*np.std(read_data["val1"]))
outputdata[outputnames[6]].append(2*np.std(read_data["val2"]))
print("Process "+str(identifier+1)+": "+str(round(100*(iterator/len(filelist)),1))+"% complete")
iterator = iterator+1
queue.put (outputdata)
except:
some message
if __name__ == '__main__':
"Main script"
此代码用于评估大量测量数据。总共我在多个目录中获得了大约900个文件(总共大约13GB)。 主脚本确定所有文件路径并将它们存储在4个块中。每个块(文件路径列表)都被赋予一个进程。
try:
print("Distributing the workload on "+str(numberOfProcesses)+" processes...")
for i in range(0,numberOfProcesses):
q[i] = multiprocessing.Queue()
Processes[i] = multiprocessing.Process(target=workPackage, args=(filelistChunks[i], colnames, outputdatanames, i, q[i]))
Processes[i].start()
for i in range(0,numberOfProcesses):
Processes[i].join()
except:
print("Exception while processing stuff...")
之后,从队列中读取restuls并将其存储到输出文件中。 现在这是我的问题: 该脚本启动4个进程,每个进程运行到100%(请参阅workPackage函数中的print)。它们不是在同一时间完成,而是在大约2分钟内完成。 但随后剧本就停止了。 如果我通过简单地切割文件列表来限制要处理的数据量,它有时会一直运行到最后但有时却没有。 我不明白,为什么脚本在所有进程达到100%后都会卡住。
我真的不知道那里发生了什么。
答案 0 :(得分:0)
使用queue.put()将项添加到队列中,然后调用queue.join(),但是我不知道你在哪里调用queue.get()或queue.task_done()。加入不会释放线程,直到队列为空并且每个项目都调用了task_done()。