如何将自定义函数应用于并行配对数组的明智元素?

时间:2019-05-08 09:18:37

标签: python arrays parallel-processing python-multiprocessing dask

我有一个数组,我想将每个元素与其他每个元素进行比较,并建立一个交叉比较表。可以通过嵌套的for循环轻松实现它,但是它的计算时间随着输入数组的大小呈指数增长,因此我想实现一种并行处理方法,以减少较大尺寸时的时间消耗。

我有一个数组,例如a = [1,2,3],我想应用一个自定义函数,例如:

def add_two_numbers(x,y):
     return x+y

一个简单的嵌套for循环实现就像:

array = [1,2,3]
matrix = np.zeros([3,3])
for i, one_element in enumerate(array):
    for j, other_element in enumerate(array):
        matrix[i][j] = add_two_numbers(one_element, other_element)

输出为:

>>> matrix
    1   2   3
______________
1 | 2   3   4
2 | 3   4   5
3 | 4   5   6

对于大型数组,在python中应用并行处理的好方法是什么?
我使用python multiprocessing库中的process类为n个元素数组创建n个进程,但是每个进程在后端打开一个文件,并且在1024个并行进程之后,我收到“打开文件太多”的异常。而且我必须使矩阵成为全局变量,以便每个进程都更新特定的元素。

import multiprocessing as mp

def add_two_numbers_process(one_element, array, i):
    global matrix
    for j, other_element in enumerate(array):
        matrix[i][j] = add_two_numbers(one_element, other_element)
    return

processes = []
for i, one_element in enumerate(array):
    p = mp.Process(target=add_two_numbers_process, args=(one_element, array, i))
    processes.append(p)
    p.start()

for process in processes:
    process.join()

我也使用了Pool类,但是这比处理类要花1000倍的时间,这似乎不可行。

import multiprocessing as mp

def add_two_numbers_pool(one_element, array, i):
    row = [0 for x in range(len(array))]
    for j, other_element in enumerate(array):
        row[j] = add_two_numbers(one_element, other_element)
    return row

pool = mp.Pool(mp.cpu_count())
matrix = [pool.apply(add_two_numbers_pool, args=(one_element, array, i)) for i, one_element in enumerate(array)]
pool.close()

我想不出使用dask分布式的方法。在这种情况下,分布式分布式能否证明是有帮助的?

1 个答案:

答案 0 :(得分:3)

作为使用多处理以及矢量化与非矢量化的区别的演示,我们可以从定义/拉动共享代码开始:

from multiprocessing import Pool

import numpy as np

def add_two_numbers(x,y):
     return x+y

# use a large number of values so processing takes some measurable amount of time
values = np.arange(3001)

然后我们可以做您的天真的事情:

result = np.empty([len(values)]*2, values.dtype)
for i, x in enumerate(values):
    for j, y in enumerate(values):
        result[i,j] = add_two_numbers(x, y)

这在我的笔记本电脑上需要约3.5秒。然后,我们可以将其移至使用multiprocessing Pool并使用:

def process_row(x):
    output = np.empty_like(values)
    for i, y in enumerate(values):
        output[i] = add_two_numbers(x, y)
    return output

with Pool() as pool:
    result = np.array(pool.map(process_row, values))

这大约花了我1秒钟的时间,然后我们可以在Pool中将其矢量化:

def process_row_vec(x):
    return add_two_numbers(values, x)

with Pool() as pool:
    result = np.array(pool.map(process_row_vec, values))

这需要0.25秒,最后我们可以使用完全矢量化的numpy版本:

x, y = np.meshgrid(values, values)
result = add_two_numbers(x, y)

大约需要0.09秒(90毫秒)。我还意识到,使用如此大量的元素时,这些中间数组(xy)会花费大量的计算时间,并且在行上进行矢量化的速度更快:

result = np.empty([len(values)]*2, values.dtype)
for i, x in enumerate(values):
    result[i,:] = add_two_numbers(x, values)

花费0.05秒(50毫秒)。

希望这些示例为您提供有关如何实现算法的一些想法!