将大型参数传递给IOError: bad message length
函数时,我得到map
。我怎么能避免这个?
设置N=1500
或更大时会发生错误。
代码是:
import numpy as np
import multiprocessing
def func(args):
i=args[0]
images=args[1]
print i
return 0
N=1500 #N=1000 works fine
images=[]
for i in np.arange(N):
images.append(np.random.random_integers(1,100,size=(500,500)))
iter_args=[]
for i in range(0,1):
iter_args.append([i,images])
pool=multiprocessing.Pool()
print pool
pool.map(func,iter_args)
在multiprocessing
的文档中,有一个函数recv_bytes
会引发IOError。可能是因为这个吗? (https://python.readthedocs.org/en/v2.7.2/library/multiprocessing.html)
修改
如果我使用images
作为numpy数组而不是列表,我会得到一个不同的错误:SystemError: NULL result without error in PyObject_Call
。
有点不同的代码:
import numpy as np
import multiprocessing
def func(args):
i=args[0]
images=args[1]
print i
return 0
N=1500 #N=1000 works fine
images=[]
for i in np.arange(N):
images.append(np.random.random_integers(1,100,size=(500,500)))
images=np.array(images) #new
iter_args=[]
for i in range(0,1):
iter_args.append([i,images])
pool=multiprocessing.Pool()
print pool
pool.map(func,iter_args)
EDIT2 我使用的实际功能是:
def func(args):
i=args[0]
images=args[1]
image=np.mean(images,axis=0)
np.savetxt("image%d.txt"%(i),image)
return 0
此外,iter_args
不包含相同的图像集:
iter_args=[]
for i in range(0,1):
rand_ind=np.random.random_integers(0,N-1,N)
iter_args.append([i,images[rand_ind]])
答案 0 :(得分:11)
您正在创建一个池并立即将所有图像发送到func()。如果您可以同时处理单个图像,请尝试这样的事情,在35秒内使用Python 2.7.10为N = 10000完成运行:
import numpy as np
import multiprocessing
def func(args):
i = args[0]
img = args[1]
print "{}: {} {}".format(i, img.shape, img.sum())
return 0
N=10000
images = ((i, np.random.random_integers(1,100,size=(500,500))) for i in xrange(N))
pool=multiprocessing.Pool(4)
pool.imap(func, images)
pool.close()
pool.join()
这里的关键是使用迭代器,因此您不必一次将所有数据保存在内存中。例如,我将包含所有数据的数组中的图像转换为生成器表达式,以便仅在需要时创建图像。你可以修改它来从磁盘或其他任何东西加载你的图像。我还使用了pool.imap而不是pool.map。
如果可以,请尝试在worker函数中加载图像数据。现在,您必须序列化所有数据并将其发送到另一个流程。如果您的图像数据较大,这可能是一个瓶颈。
[现在我们知道func必须立即处理所有图像]
你可以对你的图像做一个迭代的意思。这是一个不使用多处理的解决方案。要使用多处理,您可以将图像分成块,并将这些块存储到池中。
import numpy as np
N=10000
shape = (500,500)
def func(images):
average = np.full(shape, 0)
for i, img in images:
average += img / N
return average
images = ((i, np.full(shape,i)) for i in range(N))
print func(images)
答案 1 :(得分:1)
Python可能会将您的数据加载到RAM内存中,并且您需要此内存才可用。你检查过你的计算机内存使用情况吗?
正如帕特里克所说,你正在加载3GB的数据,确保在达到32位内存约束时使用64位版本的Python。这可能会导致您的流程崩溃:32 vs 64 bits Python
另一个改进是使用python 3.4而不是2.7。 Python 3实现似乎针对非常大的范围进行了优化,请参阅Python3 vs Python2 list/generator range performance
答案 2 :(得分:1)
运行程序时,它实际上给了我一个明确的错误:
OSError: [Errno 12] Cannot allocate memory
像其他用户一样,解决问题的方法是简单添加内存(很多)或更改程序处理图像的方式。
它使用如此多内存的原因是因为您在模块级别为图像分配内存。因此,当多进程分叉您的进程时,它也会复制所有图像(根据Shared-memory objects in python multiprocessing不是免费的),这不是必需的,因为您还将图像作为多处理模块也复制的函数的参数。使用ipc和pickle,这仍然可能导致内存不足。尝试其他用户提出的解决方案之一。
答案 3 :(得分:1)
这就是解决问题的方法:将图像声明为全局。
import numpy as np
import multiprocessing
N=1500 #N=1000 works fine
images=[]
for i in np.arange(N):
images.append(np.random.random_integers(1,100,size=(500,500)))
def func(args):
i=args[0]
images=images
print i
return 0
iter_args=[]
for i in range(0,1):
iter_args.append([i])
pool=multiprocessing.Pool()
print pool
pool.map(func,iter_args)