用于评估相同长度的1d numpy阵列上的1-d函数数组的并行算法

时间:2015-09-19 15:22:46

标签: python performance numpy parallel-processing scientific-computing

下面的结果是我有一个令人尴尬的并行循环,我试图解决。解释这个问题还有一些麻烦,但是尽管所有的冗长,我仍然认为这应该是一个相当微不足道的问题,多处理模块的设计很容易解决。

我有一个由k个不同函数组成的大长度N数组,以及一个长度为n的abcissa数组。感谢Efficient algorithm for evaluating a 1-d array of functions on a same-length 1d numpy array中描述的@senderle提供的聪明的解决方案,我有一个快速的基于numpy的算法,我可以用它来评估abcissa上的函数以返回长度为N的纵坐标数组:

def apply_indexed_fast(abcissa, func_indices, func_table):
    """ Returns the output of an array of functions evaluated at a set of input points 
    if the indices of the table storing the required functions are known. 

    Parameters 
    ----------
    func_table : array_like 
        Length k array of function objects

    abcissa : array_like 
        Length Npts array of points at which to evaluate the functions. 

    func_indices : array_like 
        Length Npts array providing the indices to use to choose which function 
        operates on each abcissa element. Thus func_indices is an array of integers 
        ranging between 0 and k-1. 

    Returns 
    -------
    out : array_like 
        Length Npts array giving the evaluation of the appropriate function on each 
        abcissa element. 
    """
    func_argsort = func_indices.argsort()
    func_ranges = list(np.searchsorted(func_indices[func_argsort], range(len(func_table))))
    func_ranges.append(None)
    out = np.zeros_like(abcissa)

    for i in range(len(func_table)):
        f = func_table[i]
        start = func_ranges[i]
        end = func_ranges[i+1]
        ix = func_argsort[start:end]
        out[ix] = f(abcissa[ix])

    return out

我现在要做的是使用多处理来并行化此函数内的for循环。在描述我的方法之前,为了清楚起见,我将简要描述算法@senderle开发的工作原理。如果您可以阅读上述代码并立即理解,只需跳过下一段文字即可。

首先,我们找到对输入 func_indices 进行排序的索引数组,我们用它来定义长度为k func_ranges 的整数数组。 func_ranges 的整数条目控制应用于输入 abcissa 的相应子数组的函数,其工作方式如下。设 f 为输入 func_table 中的第i个函数。那么我们应该应用函数 f 的输入 abcissa 的切片是 slice(func_ranges [i],func_ranges [i + 1])。因此,一旦计算了 func_ranges ,我们就可以在输入 func_table 上运行一个简单的for循环,并连续将每个函数对象应用到相应的切片,填充我们的输出数组。请参阅下面的代码,了解该算法的最小示例。

def trivial_functional(i): 
    def f(x):
        return i*x
    return f

k = 250
func_table = np.array([trivial_functional(j) for j in range(k)])

Npts = 1e6
abcissa = np.random.random(Npts)
func_indices = np.random.random_integers(0,len(func_table)-1,Npts)

result = apply_indexed_fast(abcissa, func_indices, func_table)

所以我现在的目标是使用多处理来并行化这个计算。我认为这很简单,使用我常用的技巧来线程尴尬地并行循环。但我的下面的尝试提出了一个我不明白的例外。

from multiprocessing import Pool, cpu_count
def apply_indexed_parallelized(abcissa, func_indices, func_table):
    func_argsort = func_indices.argsort()
    func_ranges = list(np.searchsorted(func_indices[func_argsort], range(len(func_table))))
    func_ranges.append(None)
    out = np.zeros_like(abcissa)

    num_cores = cpu_count()
    pool = Pool(num_cores)

    def apply_funci(i):
        f = func_table[i]
        start = func_ranges[i]
        end = func_ranges[i+1]
        ix = func_argsort[start:end]
        out[ix] = f(abcissa[ix])

    pool.map(apply_funci, range(len(func_table)))
    pool.close()

    return out

result = apply_indexed_parallelized(abcissa, func_indices, func_table)
PicklingError: Can't pickle <type 'function'>: attribute lookup __builtin__.function failed

我在其他地方看到了这个:Multiprocessing: How to use Pool.map on a function defined in a class?。我一个接一个地尝试了那里提出的每种方法;在所有情况下,我得到一个“打开太多文件”错误,因为线程从未关闭,或者改编的算法只是挂起。这似乎应该有一个简单的解决方案,因为这只不过是一个令人尴尬的并行循环线程。

1 个答案:

答案 0 :(得分:7)

警告/警告:

您可能不想将multiprocessing应用于此问题。您将在大型数组上发现相对简单的操作,问题将与numpy绑定内存。瓶颈是将数据从RAM移动到CPU缓存。 CPU缺乏数据,因此在问题上投入更多的CPU并没有多大帮助。此外,您当前的方法将为输入序列中的每个项目挑选并制作整个数组的副本,这会增加大量开销。

在很多情况下,numpy + multiprocessing 非常有效,但您需要确保您正在处理受CPU限制的问题。理想情况下,它是一个CPU限制的问题,具有相对较小的输入和输出,以减轻酸洗输入和输出的开销。对于numpy最常用的许多问题,情况并非如此。

当前方法的两个问题

回答你的问题:

您的即时错误是由于传入了一个无法从全局范围访问的函数(即函数内定义的函数)。

但是,你有另一个问题。您正在对numpy数组进行处理,就好像它们共享可由每个进程修改的内存一样。相反,当使用multiprocessing时,原始数组将被腌制(有效地制作副本)并独立地传递给每个进程。永远不会修改原始数组。

避免PicklingError

作为重现错误的最小示例,请考虑以下事项:

import multiprocessing

def apply_parallel(input_sequence):
    def func(x):
        pass
    pool = multiprocessing.Pool()
    pool.map(func, input_sequence)
    pool.close()

foo = range(100)
apply_parallel(foo)

这将导致:

PicklingError: Can't pickle <type 'function'>: attribute lookup 
               __builtin__.function failed

当然,在这个简单的例子中,我们可以简单地将函数定义移回__main__命名空间。但是,在您的网站中,您需要它来引用传入的数据。让我们看一个与您正在做的事情更接近的示例:

import numpy as np
import multiprocessing

def parallel_rolling_mean(data, window):
    data = np.pad(data, window, mode='edge')
    ind = np.arange(len(data)) + window

    def func(i):
        return data[i-window:i+window+1].mean()

    pool = multiprocessing.Pool()
    result = pool.map(func, ind)
    pool.close()
    return result

foo = np.random.rand(20).cumsum()
result = parallel_rolling_mean(foo, 10)

有多种方法可以解决这个问题,但常见的做法是:

import numpy as np
import multiprocessing

class RollingMean(object):
    def __init__(self, data, window):
        self.data = np.pad(data, window, mode='edge')
        self.window = window

    def __call__(self, i):
        start = i - self.window
        stop = i + self.window + 1
        return self.data[start:stop].mean()

def parallel_rolling_mean(data, window):
    func = RollingMean(data, window)
    ind = np.arange(len(data)) + window

    pool = multiprocessing.Pool()
    result = pool.map(func, ind)
    pool.close()
    return result

foo = np.random.rand(20).cumsum()
result = parallel_rolling_mean(foo, 10)

大!它有效!

但是,如果您将其扩展到大型数组,您很快就会发现它运行得非常慢(您可以通过chunksize调用中增加pool.map来加快速度或者你很快就会耗尽RAM(一旦增加chunksize)。

multiprocessing pickle输入,以便它可以传递给独立和独立的python进程。这意味着您为操作的每个 i制作整个数组的副本。

我们稍后会回到这一点......

multiprocessing不在进程之间共享内存

multiprocessing模块通过挑选输入并将它们传递给独立进程来工作。这意味着如果您在一个流程中修改某个内容,则其他流程将无法看到修改。

但是,multiprocessing还提供primitives that live in shared memory,并且可以由子进程访问和修改。有few different ways adapting numpy arraysfalse sharing来使用共享内存multiprocessing.Array。但是,我建议您首先避免使用这些内容(如果您不熟悉,请阅读{{3}})。在某些情况下它非常有用,但通常是为了节省内存,而不是为了提高性能。

因此,最好在单个进程中对大型数组进行所有修改(对于通用IO,这也是一个非常有用的模式)。它不一定是&#34;主要&#34;过程,但最简单的思考方式。

作为一个例子,让我们说我们想让我们的parallel_rolling_mean函数采用输出数组来存储内容。一个有用的模式类似于以下内容。注意使用迭代器并仅在主进程中修改输出:

import numpy as np
import multiprocessing

def parallel_rolling_mean(data, window, output):
    def windows(data, window):
        padded = np.pad(data, window, mode='edge')
        for i in xrange(len(data)):
            yield padded[i:i + 2*window + 1]

    pool = multiprocessing.Pool()
    results = pool.imap(np.mean, windows(data, window))
    for i, result in enumerate(results):
        output[i] = result
    pool.close()

foo = np.random.rand(20000000).cumsum()
output = np.zeros_like(foo)
parallel_rolling_mean(foo, 10, output)
print output

希望这个例子有助于澄清一些事情。

chunksize和效果

关于性能的一个快速说明:如果我们扩展它,它将非常快地变得非常慢。如果您查看系统监视器(例如top / htop),您可能会注意到您的核心在大多数时间都处于空闲状态。

默认情况下,主进程会为每个进程选择每个输入并立即传入,然后等待它们完成以挑选下一个输入。在许多情况下,这意味着主进程工作,然后在工作进程繁忙时处于空闲状态,然后工作进程处于空闲状态,而主进程正在腌制下一个输入。

关键是增加chunksize参数。这将导致pool.imap到&#34; pre-pickle&#34;每个进程的指定输入数。基本上,主线程可以保持繁忙的酸洗输入,并且工作进程可以保持繁忙的处理。缺点是你正在使用更多的内存。如果每个输入占用大量RAM,这可能是一个坏主意。但是,如果它没有,这可以显着加快速度。

作为一个简单的例子:

import numpy as np
import multiprocessing

def parallel_rolling_mean(data, window, output):
    def windows(data, window):
        padded = np.pad(data, window, mode='edge')
        for i in xrange(len(data)):
            yield padded[i:i + 2*window + 1]

    pool = multiprocessing.Pool()
    results = pool.imap(np.mean, windows(data, window), chunksize=1000)
    for i, result in enumerate(results):
        output[i] = result
    pool.close()

foo = np.random.rand(2000000).cumsum()
output = np.zeros_like(foo)
parallel_rolling_mean(foo, 10, output)
print output

使用chunksize=1000,处理200万个元素数组需要21秒:

python ~/parallel_rolling_mean.py  83.53s user 1.12s system 401% cpu 21.087 total

但是使用chunksize=1(默认值)它需要大约8倍(2分41秒)。

python ~/parallel_rolling_mean.py  358.26s user 53.40s system 246% cpu 2:47.09 total

事实上,使用默认的chunksize,它实际上远比同一事物的单进程实现差,只需要45秒:

python ~/sequential_rolling_mean.py  45.11s user 0.06s system 99% cpu 45.187 total