Scipy ndimage过滤器无法使用大内核

时间:2013-07-30 15:18:19

标签: python scipy

ndimage过滤器中内核的大小似乎存在实际限制。例如,以下代码段需要3GB的内存..

import numpy as np
from scipy import ndimage

L = 2000
kern = 140

img = np.random.rand(L * L).reshape(L, L)
filtered = ndimage.median_filter(img, size=kern)

当内核在图像中移动时,必然会发生很多缓存。

我想使用半径约为圆形足迹的generic_filter函数。 200像素,但我没有足够的内存来考虑可行性。

有没有办法控制scipy过滤器函数的缓存行为(如果确实发生了这种情况)允许使用大型内核?

0 个答案:

没有答案