我目前正在尝试使用一个简单的示例来并行化循环与cython的prange。 我已经安装了OpenBlas 0.2.14,允许使用openmp并编译了numpy 1.10.1和scipy 0.16来自openblas的源代码。为了测试库的性能,我遵循以下示例:http://nealhughes.net/parallelcomp2/。 要计时的功能将从网站中复制:
import numpy as np
from math import exp
from libc.math cimport exp as c_exp
from cython.parallel import prange,parallel
def array_f(X):
Y = np.zeros(X.shape)
index = X > 0.5
Y[index] = np.exp(X[index])
return Y
def c_array_f(double[:] X):
cdef int N = X.shape[0]
cdef double[:] Y = np.zeros(N)
cdef int i
for i in range(N):
if X[i] > 0.5:
Y[i] = c_exp(X[i])
else:
Y[i] = 0
return Y
def c_array_f_multi(double[:] X):
cdef int N = X.shape[0]
cdef double[:] Y = np.zeros(N)
cdef int i
with nogil, parallel():
for i in prange(N):
if X[i] > 0.5:
Y[i] = c_exp(X[i])
else:
Y[i] = 0
return Y
代码的作者报告了4核心的加速:
from thread_demo import *
import numpy as np
X = -1 + 2*np.random.rand(10000000)
%timeit array_f(X)
1 loops, best of 3: 222 ms per loop
%timeit c_array_f(X)
10 loops, best of 3: 87.5 ms per loop
%timeit c_array_f_multi(X)
10 loops, best of 3: 22.4 ms per loop
当我在我的机器上运行这些示例(macbook pro with osx 10.10)时,我得到以下导出时间OMP_NUM_THREADS=1
In [1]: from bla import *
In [2]: import numpy as np
In [3]: X = -1 + 2*np.random.rand(10000000)
In [4]: %timeit c_array_f(X)
10 loops, best of 3: 89.7 ms per loop
In [5]: %timeit c_array_f_multi(X)
1 loops, best of 3: 343 ms per loop
和OMP_NUM_THREADS=4
In [1]: from bla import *
In [2]: import numpy as np
In [3]: X = -1 + 2*np.random.rand(10000000)
In [4]: %timeit c_array_f(X)
10 loops, best of 3: 89.5 ms per loop
In [5]: %timeit c_array_f_multi(X)
10 loops, best of 3: 119 ms per loop
我在openSuse机器上看到了同样的行为,因此我的问题。如果我的两个系统上的4个线程的相同代码运行速度较慢,那么作者如何获得4倍的加速速度。
用于生成*.c & .so
的设置脚本也与博客中使用的设置脚本相同。
from distutils.core import setup
from Cython.Build import cythonize
from distutils.extension import Extension
from Cython.Distutils import build_ext
import numpy as np
ext_modules=[
Extension("bla",
["bla.pyx"],
libraries=["m"],
extra_compile_args = ["-O3", "-ffast-math","-march=native", "-fopenmp" ],
extra_link_args=['-fopenmp'],
include_dirs = [np.get_include()]
)
]
setup(
name = "bla",
cmdclass = {"build_ext": build_ext},
ext_modules = ext_modules
)
如果有人能向我解释为什么会发生这种情况会很棒。
答案 0 :(得分:10)
1) prange
的一个重要特性(与任何其他parallel for
循环一样)是它激活无序执行,这意味着循环可以执行以任意顺序。当迭代之间没有数据依赖时,乱序执行确实会得到回报。
我不知道Cython的内部结构,但我认为如果没有关闭boundscheck
ing,则循环不能被任意执行,因为下一次迭代将取决于数组是否已经离开在当前迭代中的边界,因此问题变得几乎是串行的,因为线程必须等待结果。这是您的代码的问题之一。事实上,Cython确实给了我以下警告:
warning: bla.pyx:42:16: Use boundscheck(False) for faster access
所以添加以下内容
from cython import boundscheck, wraparound
@boundscheck(False)
@wraparound(False)
def c_array_f(double[:] X):
# Rest of your code
@boundscheck(False)
@wraparound(False)
def c_array_f_multi(double[:] X):
# Rest of your code
现在让我们用你的数据X = -1 + 2*np.random.rand(10000000)
计算时间。
有界检查:
In [2]:%timeit array_f(X)
10 loops, best of 3: 189 ms per loop
In [4]:%timeit c_array_f(X)
10 loops, best of 3: 93.6 ms per loop
In [5]:%timeit c_array_f_multi(X)
10 loops, best of 3: 103 ms per loop
没有边界检查:
In [9]:%timeit c_array_f(X)
10 loops, best of 3: 84.2 ms per loop
In [10]:%timeit c_array_f_multi(X)
10 loops, best of 3: 42.3 ms per loop
这些结果是num_threads=4
(我有4个逻辑核心),加速大约是2倍。在进一步说明之前,我们仍然可以通过声明我们的数组是连续的,例如使用ms
声明X
和Y
,来削减更多double[::1]
。
连续数组:
In [14]:%timeit c_array_f(X)
10 loops, best of 3: 81.8 ms per loop
In [15]:%timeit c_array_f_multi(X)
10 loops, best of 3: 39.3 ms per loop
2)更重要的是工作scheduling,而这正是您的基准所遭受的。默认情况下,块大小是在编译时确定的,即schedule=static
但是很可能环境变量(例如OMP_SCHEDULE)和两台机器的工作负载(你的和博客文章中的一个)不同,他们在运行时,动态,引导等方面安排工作。我们将您的prange
替换为
for i in prange(N, schedule='static'):
# static scheduling...
for i in prange(N, schedule='dynamic'):
# dynamic scheduling...
现在让我们计时(只有多线程代码):
计划效果:
In [23]:%timeit c_array_f_multi(X) # static
10 loops, best of 3: 39.5 ms per loop
In [28]:%timeit c_array_f_multi(X) # dynamic
1 loops, best of 3: 319 ms per loop
您可能能够复制此内容,具体取决于您自己计算机上的工作负载。作为旁注,由于您只是尝试在微基准测试而不是实际代码中测量并行与串行代码的性能,我建议您摆脱if-else
条件,即仅保留{{ 1)}在for循环中。这是因为Y[i] = c_exp(X[i])
语句也会对并行代码中的分支预测和无序执行产生负面影响。在我的机器上,通过此更改,我获得了大约2.7倍的串行代码加速。