ndimage过滤器中内核的大小似乎存在实际限制。例如,以下代码段需要3GB的内存..
import numpy as np
from scipy import ndimage
L = 2000
kern = 140
img = np.random.rand(L * L).reshape(L, L)
filtered = ndimage.median_filter(img, size=kern)
当内核在图像中移动时,必然会发生很多缓存。
我想使用半径约为圆形足迹的generic_filter
函数。 200像素,但我没有足够的内存来考虑可行性。
有没有办法控制scipy过滤器函数的缓存行为(如果确实发生了这种情况)允许使用大型内核?