在下面的示例问题中,主程序创建了一个长度为data_size
的随机字符串列表。如果不进行多处理,则数据将直接发送到Test.iterate()
,在该类中,类仅将字符串Test-
添加到每个随机字符串的开头。在不进行多处理的情况下运行时,代码对于data_size
的较小值和data_size
的较大值非常有效。
我决定为此测试问题添加多处理功能,并将多处理的核心组件分解为类标题MultiProc
。成员函数Multiproc.run_processes()
管理类中的所有函数。该函数假定输入列表将根据用户希望利用多少个进程分为x个较小的列表。结果,该函数从确定每个子列表相对于初始列表的上,下索引开始,因此代码知道每个线程要迭代的部分。然后,该函数启动进程,启动进程,加入进程,从Queue
中提取数据,然后根据传递给主函数的计数器对返回的数据重新排序。 MultiProc类在较小的data_size
值下可以很好地工作,但是在大约500以上的值,代码永远不会终止,尽管我怀疑该值会因内存而异。但是,在某些时候多进程功能停止工作,我怀疑它与从多进程返回数据的方式有关。有谁知道是什么原因导致了这个问题以及如何解决?
from multiprocessing import Process, Queue
from itertools import chain
import string
import random
class Test:
def __init__(self, array_list):
self.array_list = array_list
def func(self, names):
return 'Test-' + names
def iterate(self, upper, lower, counter):
output = [self.func(self.array_list[i]) for i in range(lower, upper)]
return output, counter
class MultiProc:
def __init__(self, num_procs, data_array, func):
self.num_procs = num_procs
self.data_array = data_array
self.func = func
if self.num_procs > len(self.data_array):
self.num_procs = len(self.data_array)
self.length = int((len(self.data_array) / self.num_procs) // 1)
def run_processes(self):
upper = self.__determine_upper_indices()
lower = self.__determine_lower_indices(upper)
p, q = self.__initiate_proc(self.func, upper, lower)
self.__start_thread(p)
self.__join_threads(p)
results = self.__extract_data(q)
new = self.__reorder_data(results)
return new
def __determine_upper_indices(self):
upper = [i * self.length for i in range(1, self.num_procs)]
upper.append(len(self.data_array))
return upper
def __determine_lower_indices(self, upper):
lower = [upper[i] for i in range(len(upper) - 1)]
lower = [0] + lower
return lower
def __initiate_proc(self, func, upper, lower):
q = Queue()
p = [Process(target=self.run_and_send_back_output,
args=(q, func, upper[i], lower[i], i))
for i in range(self.num_procs)]
return p, q
def __start_thread(self, p):
[p[i].start() for i in range(self.num_procs)]
def __join_threads(self, p):
[p[i].join() for i in range(self.num_procs)]
def __extract_data(self, q):
results = []
while not q.empty():
results.extend(q.get())
return results
def __reorder_data(self, results):
new = [results[i - 1] for j in range(self.num_procs)
for i in range(len(results)) if results[i] == j]
new = list(chain.from_iterable(new))
return new
def run_and_send_back_output(self, queue, func, *args):
result = func(*args) # run the func
queue.put(result) # send the result back
def id_generator(size=6, chars=string.ascii_uppercase + string.digits):
return ''.join(random.choice(chars) for _ in range(size))
if __name__ == "__main__":
random.seed(1234)
data_size = 9
num_proc = 2
test_list = [id_generator() for i in range(data_size)]
obj1 = Test(test_list)
result1 = obj1.iterate(data_size, 0, 1)
print(result1)
multi = MultiProc(num_proc, test_list, obj1.iterate)
result2 = multi.run_processes()
print(result2)
# >> ['Test-2HAFCF', 'Test-GWPBBB', 'Test-W43JFL', 'Test-HA65PE',
# 'Test-83EF6C', 'Test-R9ET4W', 'Test-RPM37B', 'Test-6EAVJ4',
# 'Test-YKDE5K']
答案 0 :(得分:2)
您的主要问题是:
self.__start_thread(p)
self.__join_threads(p)
results = self.__extract_data(q)
启动您的尝试将其放入队列的工作程序,然后加入工作程序,直到您开始从队列中检索数据。但是,工作程序只能在所有数据都刷新到基础管道之后退出,否则将在退出时阻塞。在开始从管道中检索元素之前,像这样阻塞的连接过程可能会导致死锁。
也许您应该研究multiprocessing.Pool
,因为您要实现的是某种map()
操作。您的示例可以更优雅地重写如下内容:
from multiprocessing import Pool
import string
import random
def func(name):
return 'Test-' + name
def id_generator(size=6, chars=string.ascii_uppercase + string.digits):
return ''.join(random.choice(chars) for _ in range(size))
if __name__ == "__main__":
random.seed(1234)
data_size = 5000
num_proc = 2
test_list = [id_generator() for i in range(data_size)]
with Pool(num_proc) as pool:
result = pool.map(func, test_list)
print(result)