Cython的prange没有改善性能

时间:2016-08-19 07:15:35

标签: python numpy openmp cython gil

我正在尝试使用Cython的prange来提高某些指标计算的性能。这是我的代码:

def shausdorff(float64_t[:,::1] XA not None, float64_t[:,:,::1] XB not None):
    cdef:
        Py_ssize_t i
        Py_ssize_t n  = XB.shape[2]
        float64_t[::1] hdist = np.zeros(n)

    #arrangement to fix contiguity
    XB = np.asanyarray([np.ascontiguousarray(XB[:,:,i]) for i in range(n)])

    for i in range(n):
        hdist[i] = _hausdorff(XA, XB[i])
    return hdist

def phausdorff(float64_t[:,::1] XA not None, float64_t[:,:,::1] XB not None):
    cdef:
        Py_ssize_t i
        Py_ssize_t n  = XB.shape[2]
        float64_t[::1] hdist = np.zeros(n)

    #arrangement to fix contiguity (EDITED)
    cdef float64_t[:,:,::1] XC = np.asanyarray([np.ascontiguousarray(XB[:,:,i]) for i in range(n)])

    with nogil, parallel(num_threads=4):
        for i in prange(n, schedule='static', chunksize=1):
            hdist[i] = _hausdorff(XA, XC[i])
    return hdist

基本上,在每次迭代中,hausdorff度量在XA和每个XB[i]之间计算。这是_hausdorff函数的签名:

cdef inline float64_t _hausdorff(float64_t[:,::1] XA, float64_t[:,::1] XB) nogil:
    ...

我的问题是顺序shausdorff和并行phausdorff都有相同的时间。此外,似乎phausdorff根本没有创建任何线程。

所以我的问题是我的代码出了什么问题,如何修复它以使线程正常工作。

这是我的setup.py

from distutils.core import setup
from distutils.extension import Extension
from Cython.Build import cythonize
from Cython.Distutils import build_ext

ext_modules=[
    Extension("custom_metric",
              ["custom_metric.pyx"],
              libraries=["m"],
              extra_compile_args = ["-O3", "-ffast-math", "-march=native", "-fopenmp" ],
              extra_link_args=['-fopenmp']
              ) 
]

setup( 
  name = "custom_metric",
  cmdclass = {"build_ext": build_ext},
  ext_modules = ext_modules
) 

编辑1:以下是cython -a生成的html的链接:custom_metric.html

编辑2:以下是如何调用相应函数的示例(首先需要编译the Cython file

import custom_metric as cm
import numpy as np

XA = np.random.random((9000, 210))
XB = np.random.random((1000, 210, 9))

#timing 'parallel' version
%timeit cm.phausdorff(XA, XB)

#timing sequential version
%timeit cm.shausdorff(XA, XB)

1 个答案:

答案 0 :(得分:4)

我认为并行化正在发挥作用,但并行化的额外开销正在耗费它本来可以节省的时间。如果我尝试使用不同大小的数组,那么我确实开始在并行版本中看到加速

XA = np.random.random((900, 2100))
XB = np.random.random((100, 2100, 90))

这里的并行版本需要大约2/3的串行版本时间,这当然不是你预期的1/4,但至少会显示出一些好处。

我可以提供的一项改进是替换修复连续性的代码:

XB = np.asanyarray([np.ascontiguousarray(XB[:,:,i]) for i in range(n)]) 

XB = np.ascontiguousarray(np.transpose(XB,[2,0,1]))

这相当显着地加速了并行和非并行功能(与您最初给出的阵列相比,系数为2)。它确实使你在prange中的开销减慢得更加明显 - 在你的例子中,串行版本对于数组来说实际上更快。