我有这个函数来计算向量x的平方Mahalanobis距离意味着:
def mahalanobis_sqdist(x, mean, Sigma):
'''
Calculates squared Mahalanobis Distance of vector x
to distibutions' mean
'''
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
sqmdist = np.dot(np.dot(xdiff, Sigma_inv), xdiff)
return sqmdist
我有一个形状为(25, 4)
的numpy数组。所以,我想在没有for循环的情况下将该函数应用于我的数组的所有25行。所以,基本上,我怎么能写出这个循环的矢量化形式:
for r in d1:
mahalanobis_sqdist(r[0:4], mean1, Sig1)
其中mean1
和Sig1
是:
>>> mean1
array([ 5.028, 3.48 , 1.46 , 0.248])
>>> Sig1 = np.cov(d1[0:25, 0:4].T)
>>> Sig1
array([[ 0.16043333, 0.11808333, 0.02408333, 0.01943333],
[ 0.11808333, 0.13583333, 0.00625 , 0.02225 ],
[ 0.02408333, 0.00625 , 0.03916667, 0.00658333],
[ 0.01943333, 0.02225 , 0.00658333, 0.01093333]])
我尝试过以下但是没有用:
>>> vecdist = np.vectorize(mahalanobis_sqdist)
>>> vecdist(d1, mean1, Sig1)
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/usr/lib/python2.7/dist-packages/numpy/lib/function_base.py", line 1862, in __call__
theout = self.thefunc(*newargs)
File "<stdin>", line 6, in mahalanobis_sqdist
File "/usr/lib/python2.7/dist-packages/numpy/linalg/linalg.py", line 445, in inv
return wrap(solve(a, identity(a.shape[0], dtype=a.dtype)))
IndexError: tuple index out of range
答案 0 :(得分:19)
要将函数应用于数组的每一行,您可以使用:
np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
然而,在这种情况下,有一种更好的方法。您不必将函数应用于每一行。相反,您可以将NumPy操作应用于整个d1
数组以计算相同的结果。 np.einsum可以取代for-loop
以及对np.dot
的两次调用:
def mahalanobis_sqdist2(d, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = d - mean
return np.einsum('ij,im,mj->i', xdiff, xdiff, Sigma_inv)
以下是一些基准:
import numpy as np
np.random.seed(1)
def mahalanobis_sqdist(x, mean, Sigma):
'''
Calculates squared Mahalanobis Distance of vector x
to distibutions mean
'''
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
sqmdist = np.dot(np.dot(xdiff, Sigma_inv), xdiff)
return sqmdist
def mahalanobis_sqdist2(d, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = d - mean
return np.einsum('ij,im,mj->i', xdiff, xdiff, Sigma_inv)
def using_loop(d1, mean, Sigma):
expected = []
for r in d1:
expected.append(mahalanobis_sqdist(r[0:4], mean1, Sig1))
return np.array(expected)
d1 = np.random.random((25,4))
mean1 = np.array([ 5.028, 3.48 , 1.46 , 0.248])
Sig1 = np.cov(d1[0:25, 0:4].T)
expected = using_loop(d1, mean1, Sig1)
result = np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
result2 = mahalanobis_sqdist2(d1, mean1, Sig1)
assert np.allclose(expected, result)
assert np.allclose(expected, result2)
In [92]: %timeit mahalanobis_sqdist2(d1, mean1, Sig1)
10000 loops, best of 3: 31.1 µs per loop
In [94]: %timeit using_loop(d1, mean1, Sig1)
1000 loops, best of 3: 569 µs per loop
In [91]: %timeit np.apply_along_axis(mahalanobis_sqdist, 1, d1, mean1, Sig1)
1000 loops, best of 3: 806 µs per loop
因此,mahalanobis_sqdist2
比for-loop
快约18倍,比使用np.apply_along_axis
快26倍。
请注意,np.apply_along_axis
,np.vectorize
,np.frompyfunc
是Python实用程序功能。在引擎盖下,他们使用for-
或while-loop
s。这里没有真正的“矢量化”。他们可以提供语法帮助,但是不要指望他们使你的代码比你自己编写的for-loop
更好。
答案 1 :(得分:8)
@unutbu的答案非常适合将任何函数应用于数组的行。 在这种特殊情况下,如果使用大型数组,可以使用一些数学对称性,这将大大加快速度。
以下是您的功能的修改版本:
def mahalanobis_sqdist3(x, mean, Sigma):
Sigma_inv = np.linalg.inv(Sigma)
xdiff = x - mean
return (xdiff.dot(Sigma_inv)*xdiff).sum(axis=-1)
如果您最终使用任何类型的大Sigma
,我建议您缓存Sigma_inv
并将其作为参数传递给您的函数。
由于在这个例子中它是4x4,这没关系。
我将展示如何处理大Sigma
对于遇到此问题的其他任何人。
如果您不打算重复使用相同的Sigma
,则无法对其进行缓存,因此,您可以使用不同的方法来解决线性系统,而不是反转矩阵。
在这里,我将使用SciPy内置的LU分解。
如果x
的列数相对于其行数较大,则只会改善时间。
这是一个显示该方法的函数:
from scipy.linalg import lu_factor, lu_solve
def mahalanobis_sqdist4(x, mean, Sigma):
xdiff = x - mean
Sigma_inv = lu_factor(Sigma)
return (xdiff.T*lu_solve(Sigma_inv, xdiff.T)).sum(axis=0)
以下是一些时间安排。
我将在其他答案中提及einsum
版本。
import numpy as np
Sig1 = np.array([[ 0.16043333, 0.11808333, 0.02408333, 0.01943333],
[ 0.11808333, 0.13583333, 0.00625 , 0.02225 ],
[ 0.02408333, 0.00625 , 0.03916667, 0.00658333],
[ 0.01943333, 0.02225 , 0.00658333, 0.01093333]])
mean1 = np.array([ 5.028, 3.48 , 1.46 , 0.248])
x = np.random.rand(25, 4)
%timeit np.apply_along_axis(mahalanobis_sqdist, 1, x, mean1, Sig1)
%timeit mahalanobis_sqdist2(x, mean1, Sig1)
%timeit mahalanobis_sqdist3(x, mean1, Sig1)
%timeit mahalanobis_sqdist4(x, mean1, Sig1)
,并提供:
1000 loops, best of 3: 973 µs per loop
10000 loops, best of 3: 36.2 µs per loop
10000 loops, best of 3: 40.8 µs per loop
10000 loops, best of 3: 83.2 µs per loop
但是,更改所涉及阵列的大小会更改计时结果。
例如,让x = np.random.rand(2500, 4)
,时间是:
10 loops, best of 3: 95 ms per loop
1000 loops, best of 3: 355 µs per loop
10000 loops, best of 3: 131 µs per loop
1000 loops, best of 3: 337 µs per loop
让x = np.random.rand(1000, 1000)
,Sigma1 = np.random.rand(1000, 1000)
和mean1 = np.random.rand(1000)
的时间安排如下:
1 loops, best of 3: 1min 24s per loop
1 loops, best of 3: 2.39 s per loop
10 loops, best of 3: 155 ms per loop
10 loops, best of 3: 99.9 ms per loop
编辑:我注意到其他一个答案使用了Cholesky分解。
鉴于Sigma
是对称且肯定的,我们实际上可以比上面的结果做得更好。
通过SciPy可以获得BLAS和LAPACK的一些很好的例程,它们可以使用对称正定矩阵。
这是两个更快的版本。
from scipy.linalg.fblas import dsymm
def mahalanobis_sqdist5(x, mean, Sigma_inv):
xdiff = x - mean
Sigma_inv = la.inv(Sigma)
return np.einsum('...i,...i->...',dsymm(1., Sigma_inv, xdiff.T).T, xdiff)
from scipy.linalg.flapack import dposv
def mahalanobis_sqdist6(x, mean, Sigma):
xdiff = x - mean
return np.einsum('...i,...i->...', xdiff, dposv(Sigma, xdiff.T)[1].T)
第一个仍然反转Sigma。
如果你预先计算逆并重复使用它,它会快得多(1000x1000的情况在我的机器上需要35.6ms,并带有预先计算的逆)。
我还使用einsum取出产品然后沿最后一个轴求和。
这最终比执行(A * B).sum(axis=-1)
之类的事情要快一些。
这两个函数给出了以下时间:
第一个测试用例:
10000 loops, best of 3: 55.3 µs per loop
100000 loops, best of 3: 14.2 µs per loop
第二个测试用例:
10000 loops, best of 3: 121 µs per loop
10000 loops, best of 3: 79 µs per loop
第三个测试用例:
10 loops, best of 3: 92.5 ms per loop
10 loops, best of 3: 48.2 ms per loop
答案 2 :(得分:5)
刚刚看到reddit上的一个非常好的评论,可能会加快速度:
对于经常使用numpy的人来说,这并不奇怪。对于循环 在python中非常慢。实际上,einsum也很慢。 如果你有很多载体,那么这个版本会更快(500 4维的向量足以使这个版本更快 我机器上的einsum):
def no_einsum(d, mean, Sigma):
L_inv = np.linalg.inv(numpy.linalg.cholesky(Sigma))
xdiff = d - mean
return np.sum(np.dot(xdiff, L_inv.T)**2, axis=1)
如果你的点也是高维的,那么计算逆是 缓慢(反正一般来说也是一个坏主意),你可以节省时间 直接解决系统(250个维度中的500个向量就足够了 在我的机器上使这个版本最快):
def no_einsum_solve(d, mean, Sigma):
L = numpy.linalg.cholesky(Sigma)
xdiff = d - mean
return np.sum(np.linalg.solve(L, xdiff.T)**2, axis=0)
答案 3 :(得分:0)
问题在于np.vectorize
对所有参数进行矢量化,但是您需要仅在第一个参数上进行矢量化。您需要将excluded
关键字参数用于vectorize
:
np.vectorize(mahalanobis_sqdist, excluded=[1, 2])