投影点时,Geoviews + Datashader速度很慢

时间:2018-11-29 17:38:29

标签: python holoviews datashader geoviews

我正在使用datashader绘制550,000,000个经度和纬度。但是,为了使它有用,我需要使用geoviews覆盖地图图块和多边形。问题在于,geoviews.points()和相关联的投影会导致速度大大降低,从而使holoview + bokeh绘图的交互性质变得多余。

下面有一个可重现的示例,但是,简而言之-我正在尝试使geoviews实现(3)足够快以进行交互工作。

首先设置一些数据

import numpy as np
import pandas as pd
import dask.dataframe as dd
import datashader as ds
import datashader.transfer_functions as tf
import holoviews as hv 
from holoviews.operation.datashader import datashade
import geopandas as gpd
import geoviews as gv

例如,将数据大小缩小10。

uk_bounding_box = (-14.02,2.09,49.67,61.06)
n = int(550000000 / 10)

# Generate some fake data of the same size
df = dd.from_pandas(
    pd.DataFrame.from_dict({
        'longitude': np.random.normal(
            np.mean(uk_bounding_box[0:2]),
            np.diff(uk_bounding_box[0:2]) / 5, n
        ),
        'latitude': np.random.normal(
            np.mean(uk_bounding_box[2:4]),
            np.diff(uk_bounding_box[2:4]) / 5, n
        )
    }), npartitions=8
)

# Persist data in memory so reading wont slow down datashader
df = df.persist()

(1)只是数据共享器

仅使用没有整体视图或地理信息的数据着色器非常快-输出在4秒钟内呈现,包括聚合,因此如果是交互式的,重新渲染会更快。

# Set some plotting params
bounds = dict(x_range = uk_bounding_box[0:2],
              y_range = uk_bounding_box[2:4])
plot_width = 400
plot_height = 300 

纯数据共享器版本的时间:

%%time
cvs = ds.Canvas(plot_width=plot_width, plot_height=plot_height, **bounds)
agg = cvs.points(df, 'longitude', 'latitude', ds.count())

CPU时间:用户968毫秒,sys:29.9毫秒,总计:998毫秒 挂墙时间:506毫秒

tf.shade(agg)

just data shader

(2)datashader中的holoviews,没有geoviews投影

# Set some params
sizes = dict(width=plot_width, height=plot_height)
opts = dict(bgcolor="black", **sizes)

hv.extension('bokeh')

hv.util.opts('Image Curve RGB Polygons [width=400 height=300 shared_axes=False] {+axiswise} ')

没有任何投影,这相当于使用纯datashader

%%time
points = hv.Points(df, ['longitude', 'latitude']).redim.range(
    x=bounds['x_range'], y=bounds['y_range'])

shader = datashade(points, precompute=True ,**sizes).options(**opts)

CPU时间:用户3.32 ms,sys:131 µs,总计:3.45 ms 墙时间:3.47毫秒

shader

holoviews render

(3)datashader中的holoviews,其中有geoviews个图块,多边形和投影

这是问题的症结-我想将数据着色器层与一些地图图块和地理空间多边形对齐。对于我正在处理的数据大小,这会导致很大的速度降低,从而使交互式可视化变得多余。 (渲染总共要等待12分钟)。

我确定这与投影点相关的开销有关-有办法避免这种情况或其他任何变通方法,例如预先计算投影吗?

# Grab an example shape file to work with
ne_path = gpd.datasets.get_path('naturalearth_lowres')
example_shapes_df = gpd.read_file(ne_path)
uk_shape = example_shapes_df[example_shapes_df.name.str.contains('United K')]


# Grab maptiles
map_tiles = gv.tile_sources.ESRI

# In actual workflow I need to add some polygons
polys = gv.Polygons(uk_shape)

与上面相同,增加了gv.points()和投影

%%time 
points = gv.Points(df, ['longitude', 'latitude']).redim.range(
    x=bounds['x_range'], y=bounds['y_range'])

projected = gv.operation.project_points(points)

shader = datashade(projected, precompute=True ,**sizes).options(**opts)

CPU时间:用户11.8 s,系统:3.16 s,总计:15 s 挂墙时间:12.5 s

shader * map_tiles * polys

geoviews render

1 个答案:

答案 0 :(得分:1)

@philippjfr建议,解决方案是将坐标投影到适当的坐标系中,并使用上述方法2或3进行渲染。

类似的东西:

import cartopy

def platcaree_to_mercator_vectorised(x, y):
    '''Use cartopy to convert Platecarree coords to Mercator.'''
    return(cartopy.crs.GOOGLE_MERCATOR.transform_points(
        cartopy.crs.PlateCarree(), x, y))

def platcaree_for_map_partitions(pddf):
    '''Wrapper to apply mercator conversion and convert back to dataframe for Dask.'''
    as_arrays = platcaree_to_mercator_vectorised(pddf.longitude.values,pddf.latitude.values)
    as_df = pd.DataFrame.from_records(as_arrays[:, :2], columns=['longitude', 'latitude'])
    return(as_df)


# Project the points
df_projected = df.map_partitions(platcaree_for_map_partitions,
                                 meta={'longitude': 'f8', 'latitude': 'f8'})
from dask.diagnostics import ProgressBar
with ProgressBar():
    df_projected.to_parquet('abb_projected.parquet', compression='SNAPPY')

然后将该投影数据集与方法2或3结合使用,进行详细说明。