我正在运行python 2.7.3,我注意到以下奇怪的行为。考虑这个最小的例子:
from multiprocessing import Process, Queue
def foo(qin, qout):
while True:
bar = qin.get()
if bar is None:
break
qout.put({'bar': bar})
if __name__ == '__main__':
import sys
qin = Queue()
qout = Queue()
worker = Process(target=foo,args=(qin,qout))
worker.start()
for i in range(100000):
print i
sys.stdout.flush()
qin.put(i**2)
qin.put(None)
worker.join()
当我循环超过10,000或更多时,我的脚本会挂起worker.join()
。当循环仅达到1,000时,它可以正常工作。
有什么想法吗?
答案 0 :(得分:31)
子进程中的qout
队列已满。您从foo()
放入的数据不适合内部使用的操作系统管道的缓冲区,因此子进程阻止尝试适应更多数据。但是父进程没有读取这些数据:它也被简单地阻塞,等待子进程完成。这是一个典型的僵局。
答案 1 :(得分:4)
队列的大小必须有限制。请考虑以下修改:
from multiprocessing import Process, Queue
def foo(qin,qout):
while True:
bar = qin.get()
if bar is None:
break
#qout.put({'bar':bar})
if __name__=='__main__':
import sys
qin=Queue()
qout=Queue() ## POSITION 1
for i in range(100):
#qout=Queue() ## POSITION 2
worker=Process(target=foo,args=(qin,))
worker.start()
for j in range(1000):
x=i*100+j
print x
sys.stdout.flush()
qin.put(x**2)
qin.put(None)
worker.join()
print 'Done!'
这是按原样运行的(qout.put
行注释掉了)。如果您尝试保存所有100000个结果,则qout
会变得过大:如果我取消注释qout.put({'bar':bar})
中的foo
,并将qout
的定义保留在POSITION 1中,代码挂起。但是,如果我将qout
定义移到POSITION 2,那么脚本就会完成。
简而言之,您必须小心,qin
和qout
都不会太大。 (另见:Multiprocessing Queue maxsize limit is 32767)
答案 2 :(得分:3)
当我尝试将字符串放入总大小约为5000 cahrs的队列时,我在python3
遇到了同样的问题。
在我的项目中,有一个主机进程设置队列并启动子进程,然后加入。 Afrer join
主机进程从队列中读取。当子流程产生太多数据时,主机挂起join
。我使用以下函数修复此问题以等待主机进程中的子进程:
def yield_from_process(q, p):
while p.is_alive():
p.join(timeout=1)
while True:
try:
yield q.get(block=False)
except Empty:
break
我一旦填充就从队列中读取,因此它永远不会变得很大
答案 3 :(得分:0)
在池关闭后,我试图.get()
进行异步工作
with块之外的缩进错误
我有这个
with multiprocessing.Pool() as pool:
async_results = list()
for job in jobs:
async_results.append(
pool.apply_async(
_worker_func,
(job,),
)
)
# wrong
for async_result in async_results:
yield async_result.get()
我需要这个
with multiprocessing.Pool() as pool:
async_results = list()
for job in jobs:
async_results.append(
pool.apply_async(
_worker_func,
(job,),
)
)
# right
for async_result in async_results:
yield async_result.get()