xarray对于性能关键代码

时间:2017-11-08 12:46:29

标签: performance python-xarray

我计划在我正在撰写的一些数字密集的科学代码中广泛使用xarray。到目前为止,它使代码非常优雅,但我认为我将不得不放弃它,因为性能成本太高。

这是一个例子,它创建了两个数组,并使用xarray(带有几个索引方案)和numpy将它们的一部分相乘。我使用num_comp = 2和num_x = 10000:

Line #      Hits     Time   Per Hit   % Time  Line Contents
 4                                           @profile
 5                                           def xr_timing(num_comp, num_x):
 6         1         4112   4112.0     10.1      da1 = xr.DataArray(np.random.random([num_comp, num_x]).astype(np.float32), dims=['component', 'x'], coords={'component': ['a', 'b'], 'x': np.linspace(0, 1, num_x)})
 7         1          438    438.0      1.1      da2 = da1.copy()
 8         1         1398   1398.0      3.4      da2[:] = np.random.random([num_comp, num_x]).astype(np.float32)
 9         1         7148   7148.0     17.6      da3 = da1.isel(component=0).drop('component') * da2.isel(component=0).drop('component')
10         1         6298   6298.0     15.5      da4 = da1[dict(component=0)].drop('component') * da2[dict(component=0)].drop('component')
11         1         7541   7541.0     18.6      da5 = da1.sel(component='a').drop('component') * da2.sel(component='a').drop('component')
12         1         7184   7184.0     17.7      da6 = da1.loc[dict(component='a')].drop('component') * da2.loc[dict(component='a')].drop('component')
13         1         6479   6479.0     16.0      da7 = da1[0, :].drop('component') * da2[0, :].drop('component')

15                                           @profile
16                                           def np_timing(num_comp, num_x):
17         1         1027   1027.0     50.2      da1 = np.random.random([num_comp, num_x]).astype(np.float32)
18         1          977    977.0     47.8      da2 = np.random.random([num_comp, num_x]).astype(np.float32)
19         1           41     41.0      2.0      da3 = da1[0, :] * da2[0, :]

最快的xarray乘法大约需要numpy版本的150倍。这只是我的代码中的一个操作,但是我发现它们中的大多数比numpy等价物慢很多,这是不幸的,因为xarray使代码更加清晰。我做错了吗?

更新:即使是da1 [0,:]。values * da2 [0,:]。值(这会失去使用xarray的许多好处)需要2464个时间单位。

我使用的是xarray 0.9.6,pandas 0.21.0,numpy 1.13.3和Python 3.5.2。

更新2: 根据@Maximilian的要求,这里重新运行num_x = 1000000:

Line #      Hits   Time    Per Hit   % Time  Line Contents
# xarray
 9         5       408596  81719.2     11.3      da3 = da1.isel(component=0).drop('component') * da2.isel(component=0).drop('component')
10         5       407003  81400.6     11.3      da4 = da1[dict(component=0)].drop('component') * da2[dict(component=0)].drop('component')
11         5       411248  82249.6     11.4      da5 = da1.sel(component='a').drop('component') * da2.sel(component='a').drop('component')
12         5       411730  82346.0     11.4      da6 = da1.loc[dict(component='a')].drop('component') * da2.loc[dict(component='a')].drop('component')
13         5       406757  81351.4     11.3      da7 = da1[0, :].drop('component') * da2[0, :].drop('component')
14         5        48800   9760.0      1.4      da8 = da1[0, :].values * da2[0, :].values

# numpy
20         5        37476   7495.2      2.9      da3 = da1[0, :] * da2[0, :]

性能差异已经大大减少,正如预期的那样(现在只减慢了约10倍),但我仍然很高兴在下一版本的文档中会提到这个问题,因为即使这样的差异可能会让一些人感到惊讶。 / p>

1 个答案:

答案 0 :(得分:4)

是的,这是xarray的已知限制。对于xarray而言,使用小型数组的性能敏感代码比NumPy慢得多。我在下一版本的文档中写了一篇关于这个的新章节: http://xarray.pydata.org/en/stable/computation.html#wrapping-custom-computation

您基本上有两个选择:

  1. 在未打包的数组上编写性能敏感代码,然后将它们包装回xarray数据结构中。 Xarray v0.10有一个新的辅助函数(apply_ufunc),这使得它更容易一些。如果您对此感兴趣,请参阅上面的链接。
  2. 使用xarray / Python之外的其他东西来进行计算。这也有意义,因为Python本身会增加很多开销。朱莉娅的AxisArrays.jl看起来很有趣,虽然我自己没有尝试过。
  3. 我认为选项3是用C ++重写xarray本身(例如,在xtensor之上),但这将涉及更多!