我正在尝试使用Numba和Dask来加快慢速计算的速度,类似于计算大量点集的kernel density estimate。我的计划是在jit
ed函数中编写计算量大的逻辑,然后使用dask
在CPU内核之间分配工作。我想使用nogil
函数的numba.jit
功能,以便可以使用dask
线程后端,以避免不必要的输入数据存储副本(非常大)。 / p>
不幸的是,除非我使用'processes'
调度程序,否则Dask不会加快速度。如果我改用ThreadPoolExector
,则可以看到预期的速度。
这是我的问题的简化示例:
import os
import numpy as np
import numba
import dask
CPU_COUNT = os.cpu_count()
def render_internal(size, mag):
"""mag is the magnification to apply
generate coordinates internally
"""
coords = np.random.rand(size, 2)
img = np.zeros((mag, mag), dtype=np.int64)
for i in range(len(coords)):
y0, x0 = coords[i] * mag
y1, x1 = int(y0), int(x0)
m = 1
img[y1, x1] += m
jit_render_internal = numba.jit(render_internal, nogil=True, nopython=True)
args = 10000000, 100
print("Linear time:")
%time linear_compute = [jit_render_internal(*args) for i in range(CPU_COUNT)]
delayed_jit_render_internal = dask.delayed(jit_render_internal)
print()
print("Threads time:")
%time dask_compute_threads = dask.compute(*[delayed_jit_render_internal(*args) for i in range(CPU_COUNT)])
print()
print("Processes time:")
%time dask_compute_processes = dask.compute(*[delayed_jit_render_internal(*args) for i in range(CPU_COUNT)], scheduler="processes")
这是我机器上的输出:
Linear time:
Wall time: 1min 17s
Threads time:
Wall time: 1min 47s
Processes time:
Wall time: 7.79 s
对于处理后端和线程后端,我都可以看到所有CPU内核的完全利用。但是无法加快线程后端的速度。我非常确定,固定功能jit_render_internal
实际上并未释放GIL。
我的两个问题是:
nogil
关键字传递给numba.jit
并且无法释放GIL,为什么没有引发错误?答案 0 :(得分:0)
请尝试以下方法,它更快并且似乎可以解决线程性能问题:
def render_internal(size, mag):
"""mag is the magnification to apply
generate coordinates internally
"""
coords = np.random.rand(size, 2)
img = np.zeros((mag, mag), dtype=np.int64)
for i in range(len(coords)):
#y0, x0 = coords[i] * mag
y0 = coords[i,0] * mag
x0 = coords[i,1] * mag
y1, x1 = int(y0), int(x0)
m = 1
img[y1, x1] += m
我在上面将x0
和y0
的计算结果进行了拆分。在我的机器上,基于线程的解决方案实际上比更改后的进程要快。