多处理脚本卡住

时间:2018-01-15 08:04:33

标签: python multiprocessing

我有以下Python代码:

def workPackage(args):
   try:      
    outputdata                  = dict()
    iterator                        = 1
    for name in outputnames:
        outputdata[name]            = []
    for filename in filelist:
        read_data                   = np.genfromtxt(filename, comments="#", unpack=True, names=datacolnames, delimiter=";")
        mean_va1                    = np.mean(read_data["val1"])
        mean_va2                    = np.mean(read_data["val2"])
        outputdata[outputnames[0]].append(read_data["setpoint"][0])
        outputdata[outputnames[1]].append(mean_val1)
        outputdata[outputnames[2]].append(mean_val2)        
        outputdata[outputnames[3]].append(mean_val1-mean_val2)
        outputdata[outputnames[4]].append((mean_val1-mean_val2)/read_data["setpoint"][0]*100)
        outputdata[outputnames[5]].append(2*np.std(read_data["val1"]))
        outputdata[outputnames[6]].append(2*np.std(read_data["val2"]))      


        print("Process "+str(identifier+1)+": "+str(round(100*(iterator/len(filelist)),1))+"% complete")
        iterator    = iterator+1

    queue.put (outputdata)
 except:
 some message

if __name__ == '__main__':
"Main script"

此代码用于评估大量测量数据。总共我在多个目录中获得了大约900个文件(总共大约13GB)。 主脚本确定所有文件路径并将它们存储在4个块中。每个块(文件路径列表)都被赋予一个进程。

    try:
      print("Distributing the workload on "+str(numberOfProcesses)+" processes...")                     
      for i in range(0,numberOfProcesses):
        q[i]                = multiprocessing.Queue()
        Processes[i]        = multiprocessing.Process(target=workPackage, args=(filelistChunks[i], colnames, outputdatanames, i, q[i]))
        Processes[i].start()
      for i in range(0,numberOfProcesses):
        Processes[i].join()
    except:
       print("Exception while processing stuff...")

之后,从队列中读取restuls并将其存储到输出文件中。 现在这是我的问题: 该脚本启动4个进程,每个进程运行到100%(请参阅workPackage函数中的print)。它们不是在同一时间完成,而是在大约2分钟内完成。 但随后剧本就停止了。 如果我通过简单地切割文件列表来限制要处理的数据量,它有时会一直运行到最后但有时却没有。 我不明白,为什么脚本在所有进程达到100%后都会卡住。

我真的不知道那里发生了什么。

1 个答案:

答案 0 :(得分:0)

使用queue.put()将项添加到队列中,然后调用queue.join(),但是我不知道你在哪里调用queue.get()或queue.task_done()。加入不会释放线程,直到队列为空并且每个项目都调用了task_done()。