python多处理 - 进程挂起大型队列的连接

时间:2014-02-08 04:27:19

标签: python process queue multiprocessing

我正在运行python 2.7.3,我注意到以下奇怪的行为。考虑这个最小的例子:

from multiprocessing import Process, Queue

def foo(qin, qout):
    while True:
        bar = qin.get()
        if bar is None:
            break
        qout.put({'bar': bar})

if __name__ == '__main__':
    import sys

    qin = Queue()
    qout = Queue()
    worker = Process(target=foo,args=(qin,qout))
    worker.start()

    for i in range(100000):
        print i
        sys.stdout.flush()
        qin.put(i**2)

    qin.put(None)
    worker.join()

当我循环超过10,000或更多时,我的脚本会挂起worker.join()。当循环仅达到1,000时,它可以正常工作。

有什么想法吗?

4 个答案:

答案 0 :(得分:31)

子进程中的qout队列已满。您从foo()放入的数据不适合内部使用的操作系统管道的缓冲区,因此子进程阻止尝试适应更多数据。但是父进程没有读取这些数据:它也被简单地阻塞,等待子进程完成。这是一个典型的僵局。

答案 1 :(得分:4)

队列的大小必须有限制。请考虑以下修改:

from multiprocessing import Process, Queue

def foo(qin,qout):
    while True:
        bar = qin.get()
        if bar is None:
            break
        #qout.put({'bar':bar})

if __name__=='__main__':
    import sys

    qin=Queue()
    qout=Queue()   ## POSITION 1
    for i in range(100):
        #qout=Queue()   ## POSITION 2
        worker=Process(target=foo,args=(qin,))
        worker.start()
        for j in range(1000):
            x=i*100+j
            print x
            sys.stdout.flush()
            qin.put(x**2)

        qin.put(None)
        worker.join()

    print 'Done!'

这是按原样运行的(qout.put行注释掉了)。如果您尝试保存所有100000个结果,则qout会变得过大:如果我取消注释qout.put({'bar':bar})中的foo,并将qout的定义保留在POSITION 1中,代码挂起。但是,如果我将qout定义移到POSITION 2,那么脚本就会完成。

简而言之,您必须小心,qinqout都不会太大。 (另见:Multiprocessing Queue maxsize limit is 32767

答案 2 :(得分:3)

当我尝试将字符串放入总大小约为5000 cahrs的队列时,我在python3遇到了同样的问题。

在我的项目中,有一个主机进程设置队列并启动子进程,然后加入。 Afrer join主机进程从队列中读取。当子流程产生太多数据时,主机挂起join。我使用以下函数修复此问题以等待主机进程中的子进程:

def yield_from_process(q, p):
    while p.is_alive():
        p.join(timeout=1)
        while True:
            try:
                yield q.get(block=False)
            except Empty:
                break

我一旦填充就从队列中读取,因此它永远不会变得很大

答案 3 :(得分:0)

在池关闭后,我试图.get()进行异步工作

with块之外的缩进错误

我有这个

with multiprocessing.Pool() as pool:
    async_results = list()
    for job in jobs:
        async_results.append(
            pool.apply_async(
                _worker_func,
                (job,),
            )
        )
# wrong
for async_result in async_results:
    yield async_result.get()

我需要这个

with multiprocessing.Pool() as pool:
    async_results = list()
    for job in jobs:
        async_results.append(
            pool.apply_async(
                _worker_func,
                (job,),
            )
        )
    # right
    for async_result in async_results:
        yield async_result.get()