所以我一直在阅读有关curve_fit
here的文档。它包含以下示例:
import numpy as np
import scipy.optimize as so
def func(x, a,b,c ):
return a * np.exp(-b * x) + c
a,b,c = 2.5, 1.3, 0.5
nx = 500
noiseAlpha = 0.5
#
xdata = np.linspace(0, 4, nx)
y = func(xdata, a,b,c)
ydata = y + noiseAlpha * np.random.normal(size=len(xdata))
如果我现在打电话给curve_fit
,它会接近衍生物,因为我没有提供任何东西。我们来吧吧时间:
%%timeit
popt, pcov = so.curve_fit(func, xdata, ydata )
1000 loops, best of 3: 787 µs per loop
实际上curve_fit
调用leastsq
(doc here),它接受Dfun
参数来计算雅可比行列式。所以我这样做了:
def myDfun( abc, xdata, ydata, f ) :
a,b,c = abc
ebx = np.exp(-b * xdata)
res = np.vstack( ( ebx, a * -xdata * ebx, np.ones(len(xdata)) ) ).T
return res
我再次计时:
%%timeit
popt, pcov = so.curve_fit(func, xdata, ydata, Dfun=myDfun )
1000 loops, best of 3: 858 µs per loop
呃?雅可比比使用Jacobian要慢吗?我做错了什么?
答案 0 :(得分:1)
不是真正的答案,但我的感觉是依赖于问题的大小。对于小尺寸(n = 500),评估雅各比(使用提供的jac)所花费的额外时间可能最终无法获得回报。
n = 500,使用jab:
100 loops, best of 3: 1.50 ms per loop
不
100 loops, best of 3: 1.57 ms per loop
n = 5000,使用jab:
100 loops, best of 3: 5.07 ms per loop
不
100 loops, best of 3: 6.46 ms per loop
n = 50000,使用jab:
100 loops, best of 3: 49.1 ms per loop
不
100 loops, best of 3: 59.2 ms per loop
你也可以考虑重写jacobian函数,例如摆脱昂贵的.T()
可以带来约15%的加速:
def myDfun2( abc, xdata, ydata, f ) :
a,b,c = abc
ebx = np.exp(-b * xdata)
res = np.hstack( ( ebx.reshape(-1,1), (a * -xdata * ebx).reshape(-1,1), np.ones((len(xdata),1)) ) )
return res