dask性能沿轴应用

时间:2017-11-15 18:32:48

标签: dask python-xarray

我正在尝试使用dask计算大型高分辨率海洋模型数据集随时间的线性趋势。

我已按照此示例(Applying a function along an axis of a dask array)发现apply_along_axis的语法更容易。

我目前正在使用dask.array.apply_along_axis在一维数组上包装一个numpy函数,然后将生成的dask数组打包成一个xarray Dataarray。使用top -u <username>表明计算不是并行执行的(~100%cpu使用)。

我应该期待map_blocks能有更好的表现吗?或者有关于如何提高apply_along_axis性能的建议吗? 任何提示都非常感谢。

import numpy as np
from scipy import optimize
import xarray as xr
import dask.array as dsa

def _lin_trend(y):
    x = np.arange(len(y))
    return np.polyfit(x, y, 1)



def linear_trend(da, dim, name='parameter'):
    da = da.copy()
    axis_num = da.get_axis_num(dim)

    dims = list(da.dims)
    dims[axis_num] = name
    coords = da.rename({dim:name}).coords
    coords[name] = ['slope', 'intercept']

    dsk = da.data
    dsk_trend = dsa.apply_along_axis(_lin_trend,0,dsk)
    out = xr.DataArray(dsk_trend, dims=dims, coords=coords)
    return out

2 个答案:

答案 0 :(得分:1)

我认为最终性能受到我正在处理的文件系统的限制。要回答你的问题,我的数据集有以下形状:

<xarray.Dataset>
Dimensions:         (st_edges_ocean: 51, st_ocean: 50, time: 101, xt_ocean: 3600, yt_ocean: 2700)
Coordinates:
  * xt_ocean        (xt_ocean) float64 -279.9 -279.8 -279.7 -279.6 -279.5 ...
  * yt_ocean        (yt_ocean) float64 -81.11 -81.07 -81.02 -80.98 -80.94 ...
  * st_ocean        (st_ocean) float64 5.034 15.1 25.22 35.36 45.58 55.85 ...
  * st_edges_ocean  (st_edges_ocean) float64 0.0 10.07 20.16 30.29 40.47 ...
  * time            (time) float64 3.634e+04 3.671e+04 3.707e+04 3.744e+04 ...

所以它相当大,需要很长时间才能从磁盘读取。我重新考虑了它,以便时间维度是一个单块

dask.array<concatenate, shape=(101, 50, 2700, 3600), dtype=float64, 
chunksize=(101, 1, 270, 3600)>

这对性能没有太大影响(功能完成还需要大约20小时(包括读写磁盘)。我目前只是在时间上进行分块,例如。

dask.array<concatenate, shape=(101, 50, 2700, 3600), dtype=float64, 
chunksize=(1, 1, 2700, 3600)>

我对这两种方法的相对性能感兴趣,并在我的笔记本电脑上进行了测试。

import xarray as xr
import numpy as np
from scipy import stats
import dask.array as dsa

slope = 10
intercept = 5
t = np.arange(250)
x = np.arange(10)
y = np.arange(500)
z = np.arange(200)
chunks = {'x':10, 'y':10}

noise = np.random.random([len(x), len(y), len(z), len(t)])
ones = np.ones_like(noise)
time = ones*t
data = (time*slope+intercept)+noise
da = xr.DataArray(data, dims=['x', 'y', 'z', 't'],
                 coords={'x':('x', x),
                        'y':('y', y),
                        'z':('z', z),
                        't':('t', t)})
da = da.chunk(chunks)
da

我现在定义了一组私有函数(使用linregress和polyfit来计算时间序列的斜率),以及使用dask.apply_along和xarray.apply_ufunc的不同实现。

def _calc_slope_poly(y):
    """ufunc to be used by linear_trend"""
    x = np.arange(len(y))
    return np.polyfit(x, y, 1)[0]


def _calc_slope(y):
    '''returns the slop from a linear regression fit of x and y'''
    x = np.arange(len(y))
    return stats.linregress(x, y)[0]

def linear_trend_along(da, dim):
    """computes linear trend over 'dim' from the da.
       Slope and intercept of the least square fit are added to a new
       DataArray which has the dimension 'name' instead of 'dim', containing
       slope and intercept for each gridpoint
    """
    da = da.copy()
    axis_num = da.get_axis_num(dim)
    trend = dsa.apply_along_axis(_calc_slope, axis_num, da.data)
    return trend

def linear_trend_ufunc(obj, dim):
    trend = xr.apply_ufunc(_calc_slope, obj,
                           vectorize=True,
                           input_core_dims=[[dim]],
                           output_core_dims=[[]],
                           output_dtypes=[np.float],
                           dask='parallelized')

    return trend

def linear_trend_ufunc_poly(obj, dim):
    trend = xr.apply_ufunc(_calc_slope_poly, obj,
                           vectorize=True,
                           input_core_dims=[[dim]],
                           output_core_dims=[[]],
                           output_dtypes=[np.float],
                           dask='parallelized')

    return trend

def linear_trend_along_poly(da, dim):
    """computes linear trend over 'dim' from the da.
       Slope and intercept of the least square fit are added to a new
       DataArray which has the dimension 'name' instead of 'dim', containing
       slope and intercept for each gridpoint
    """
    da = da.copy()
    axis_num = da.get_axis_num(dim)
    trend = dsa.apply_along_axis(_calc_slope_poly, axis_num, da.data)
    return trend

trend_ufunc = linear_trend_ufunc(da, 't')
trend_ufunc_poly = linear_trend_ufunc_poly(da, 't')
trend_along = linear_trend_along(da, 't')
trend_along_poly = linear_trend_along_poly(da, 't')

计算的时间似乎表明apply_along方法可能略微加快。然而,使用polyfit而不是linregress似乎有相当大的影响。我不确定为什么这会更快,但也许这对你很感兴趣。

%%timeit 
print(trend_ufunc[1,1,1].data.compute())

每回路4.89 s±180 ms(平均值±标准偏差,7次运行,每次1次循环)

%%timeit 
trend_ufunc_poly[1,1,1].compute()

每回路2.74 s±182 ms(平均值±标准偏差,7次运行,每次1次循环)

%%timeit 
trend_along[1,1,1].compute()

每循环4.58 s±193 ms(平均值±标准偏差,7次运行,每次1次循环)

%%timeit
trend_along_poly[1,1,1].compute()

每循环2.64 s±65 ms(平均值±标准偏差,7次运行,每次循环1次)

答案 1 :(得分:0)

我一直在做类似的事情,使用xarray的apply_ufunc(需要xarray v0.10或更高版本)。与在dask中使用apply_along_axis函数相比,这可能更容易管理。

import xarray as xr
import numpy as np
from scipy import stats

def _calc_slope(x, y):
    '''wrapper that returns the slop from a linear regression fit of x and y'''
    slope = stats.linregress(x, y)[0]  # extract slope only
    return slope


def linear_trend(obj):
    time_nums = xr.DataArray(obj['time'].values.astype(np.float),
                             dims='time',
                             coords={'time': obj['time']},
                             name='time_nums')
    trend = xr.apply_ufunc(_calc_slope, time_nums, obj,
                           vectorize=True,
                           input_core_dims=[['time'], ['time']],
                           output_core_dims=[[]],
                           output_dtypes=[np.float],
                           dask='parallelized')

    return trend

解决有关为什么表现不符合预期的问题。这可能有很多原因。你的dask数组是如何分块的?您使用哪个dask调度程序?在我更好地了解您的配置后,我会更新我的答案的第二部分吗?