沿着dask数组的轴应用函数

时间:2016-03-29 03:48:12

标签: python dask

我正在分析来自气候模型模拟的海洋温度数据,其中4D数据阵列(时间,深度,纬度,经度;下面表示为dask_array)通常具有(6000,31,189,192)的形状并且大小约为25GB(因此我希望使用dask;我一直在尝试使用numpy来处理这些数组时出现内存错误。)

我需要在每个级别/纬度/经度点沿时间轴拟合三次多项式并存储得到的4个系数。因此,我设置了chunksize=(6000, 1, 1, 1),因此每个网格点都有一个单独的块。

这是我获取三次多项式系数的函数(time_axis轴值是在别处定义的全局1D numpy数组):

def my_polyfit(data):    
    return numpy.polyfit(data.squeeze(), time_axis, 3)

(所以在这种情况下,numpy.polyfit返回长度为4的列表

这是我认为我需要将它应用于每个块的命令:

dask_array.map_blocks(my_polyfit, chunks=(4, 1, 1, 1), drop_axis=0, new_axis=0).compute()

因此,时间轴现在消失了(因此drop_axis=0)并且在它的位置(长度为4)有一个新的系数轴。

当我运行此命令时,我得到IndexError: tuple index out of range,所以我想知道我在哪里/怎么误解了map_blocks的使用?

2 个答案:

答案 0 :(得分:4)

我怀疑如果你的函数返回一个与它消耗的相同维度的数组,你的体验会更顺畅。例如。您可以考虑按如下方式定义函数:

def my_polyfit(data):
    return np.polyfit(data.squeeze(), ...)[:, None, None, None]

然后你可以忽略new_axisdrop_axis位。

在性能方面,您可能还想考虑使用更大的chunksize。每个块有6000个数字,你有超过一百万个块,这意味着你可能会在调度上花费更多时间而不是实际计算。一般来说,我拍摄的是几兆字节的块。当然,增加chunksize会导致映射函数变得更加复杂。

实施例

In [1]: import dask.array as da

In [2]: import numpy as np

In [3]: def f(b):
    return np.polyfit(b.squeeze(), np.arange(5), 3)[:, None, None, None]
   ...: 

In [4]: x = da.random.random((5, 3, 3, 3), chunks=(5, 1, 1, 1))

In [5]: x.map_blocks(f, chunks=(4, 1, 1, 1)).compute()
Out[5]: 
array([[[[ -1.29058580e+02,   2.21410738e+02,   1.00721521e+01],
         [ -2.22469851e+02,  -9.14889627e+01,  -2.86405832e+02],
         [  1.40415805e+02,   3.58726232e+02,   6.47166710e+02]],
         ...

答案 1 :(得分:1)

派对迟到了,但认为这可以使用基于Dask新功能的替代答案。特别是,我们添加了apply_along_axis,其行为基本上类似于NumPy's apply_along_axis,而不是Dask Arrays。这导致语法稍微简单一些。此外,它还避免了在将自定义函数应用于每个1-D部分之前重新分组数据的需要,并且对初始分块没有实际要求,它会尝试保留最终结果(除了减少或替换的轴除外)

In [1]: import dask.array as da

In [2]: import numpy as np

In [3]: def f(b):
   ...:     return np.polyfit(b, np.arange(len(b)), 3)
   ...: 

In [4]: x = da.random.random((5, 3, 3, 3), chunks=(5, 1, 1, 1))

In [5]: da.apply_along_axis(f, 0, x).compute()
Out[5]: 
array([[[[  2.13570599e+02,   2.28924503e+00,   6.16369231e+01],
         [  4.32000311e+00,   7.01462518e+01,  -1.62215514e+02],
         [  2.89466687e+02,  -1.35522215e+02,   2.86643721e+02]],
         ...