我有一个非常大的numpy数组,其维度为(4000,6000,15)。
我现在想要每个堆栈的中值,即沿着第三维。当前的代码可以工作,但是奇怪的是速度很慢,单个堆栈的中位数[0,0,:](15个值)至少需要半秒才能完成。
height = 4000
width = 6000
N = 15
poolmedian = np.zeros((height,width,3))
RGBmedian = np.zeros((height,width,N), dtype=float)
for n in range(0,height):
for m in range(0,width):
poolmedian[n,m,0] = np.median(RGBmedian[n,m,:])
答案 0 :(得分:2)
您将要尽可能向量化中值计算。每次调用numpy
函数时,都会在C和Python层之间来回敲击。在C层中做尽可能多的事情:
import numpy as np
height = 40
width = 60
N = 15
np.random.seed(1)
poolmedian = np.zeros((height,width,3))
RGBmedian = np.random.random((height,width,N))
def original():
for n in range(0,height):
for m in range(0,width):
poolmedian[n,m,0] = np.median(RGBmedian[n,m,:])
return poolmedian
def vectorized():
# Note: np.median is only called ONCE, not n*m times.
poolmedian[:, :, 0] = np.median(RGBmedian, axis=-1)
return poolmedian
orig = original()
vec = vectorized()
np.testing.assert_array_equal(orig, vec)
您可以看到自断言通过以来,值是相同的(尽管尚不清楚为什么在poolmedian
中需要3个暗角)。我将上面的代码放在一个名为test.py的文件中,并使用IPython来方便使用%timeit
。我也略微减小了大小,以使其运行更快,但是您应该在大数据上获得类似的节省。向量化版本的速度提高了约100倍:
In [1]: from test import original, vectorized
In [2]: %timeit original()
69.1 ms ± 394 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
In [3]: %timeit vectorized()
618 µs ± 4.1 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
通常,您要使用numpy
的广播规则并尽可能少地调用一个函数。如果您要寻找高效的numpy
代码,那么在循环中调用函数几乎总是 。
附录:
我在test.py中添加了以下函数,因为还有另一个答案,所以我想说明一下,调用完全矢量化的版本(即无循环)会更快,并且还可以修改为使用dims 4000 x 6000:
import numpy as np
height = 4000
width = 6000
N = 15
...
def fordy():
for n in range(0,height):
for m in range(0,width):
array = RGBmedian[n,m,:]
array.sort()
poolmedian[n, m, 0] = (array[6] + array[7])/2
return poolmedian
如果将所有这些都加载到IPython中,我们将得到:
In [1]: from test import original, fordy, vectorized
In [2]: %timeit original()
6.87 s ± 72.6 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [3]: %timeit fordy()
262 ms ± 737 µs per loop (mean ± std. dev. of 7 runs, 1 loop each)
In [4]: %timeit vectorized()
18.4 ms ± 149 µs per loop (mean ± std. dev. of 7 runs, 10 loops each)
HTH。