我有一个可行的Python代码,但它很慢,我相信必须有一种更有效的方法。
我们的想法是对图像应用滤镜。滤波器是指定半径范围内的点的平均值。输入是一个mx2
数组,表示x,y和mx1
数组z,表示m个观测点的坐标。
有效的程序如下
import numpy as np
def haversine(point, xy_list):
earth_radius = 6378137.0
dlon = np.radians(xy_list[:,0]) - np.radians(point[0])
dlat = np.radians(xy_list[:,1]) - np.radians(point[1])
a = np.square(np.sin(dlat/2.0)) + np.cos(np.radians(point[0])) * np.cos(np.radians(xy_list[:,0])) * np.square(np.sin(dlon/2.0))
return 2 * earth_radius * np.arcsin(np.sqrt(a))
def circular_filter(xy, z, radius):
filtered = np.zeros(xy.shape[0])
for q in range(xy.shape[0]):
dist = haversine(xy[q,:],xy)
masked_z = np.ma.masked_where(dist>radius, z)
filtered[q] = masked_z.mean()
return filtered
x = np.random.uniform(low=-90, high=0, size=(1000,1)) # x represents longitude
y = np.random.uniform(low=0, high=90, size=(1000,1)) # y represents latitude
xy = np.hstack((x,y))
z = np.random.rand(1000,)
fitered_z = circular_filter(xy, z, radius=100.)
问题是我每个数据集有600万个点,而且代码速度非常慢。必须有一种方法可以更有效地做到这一点。我想过使用scipy.spatial.distance.cdist()很快,但是我必须将数据重新投影到UTM,我想避免重新投影。有什么建议吗?
谢谢, Reniel
答案 0 :(得分:0)
经过大量的阅读后,我终于找到了我的代码永远运行的原因。这是因为我需要理解并应用过滤器内核的概念。基本上我意识到我的问题和这篇文章之间有联系: Local Maxima with circular window
缺点:用户需要提供正确的EPSG代码,但我想我以后可以找到解决方法。
好处:非常快速有效。
对我有用的是将lat long转换为UTM,以便我们可以创建一个循环内核并从scipy应用generic_filter。
import numpy as np
from pyproj import Proj, transform
from scipy.ndimage.filters import generic_filter
def circular_filter(tile, radius):
x, y = np.meshgrid(tile['lon'], tile['lat'])
x = x.reshape(x.size)
y = np.flipud(y.reshape(y.size))
z = tile['values'].reshape(tile['values'].size)
wgs84 = Proj(init='epsg:4326')
utm18N = Proj(init='epsg:26918')
x,y = transform(wgs84,utm18N,x,y)
dem_res = np.abs(x[1]-x[0]) # calculates the raster resolution, (original data is geoTiff read using gdal).
radius = int(np.ceil(radius/dem_res)) # user gives meters, but we figure out number of cells
print(radius)
kernel = np.zeros((2*radius+1, 2*radius+1))
y,x = np.ogrid[-radius:radius+1, -radius:radius+1]
mask = x**2 + y**2 <= radius**2
kernel[mask] = 1
print('Commence circular filter.'); start = time.time()
tile['values'] = generic_filter(tile['values'], np.mean, footprint=kernel)
print('Took {:.3f} seconds'.format(time.time()-start))
我还从这里看了一下聚类技术:http://geoffboeing.com/2014/08/clustering-to-reduce-spatial-data-set-size/
但我意识到这些聚类技术的用途完全不同。