Scipy.optimize.l_bfgs_b:为什么它会计算几次相同的函数值?

时间:2014-10-14 16:38:49

标签: python scipy

我目前正在尝试使用scipy.optimize来查找试图拟合某些数据的模拟参数。创建了一个函数,它给出了模型的卡方数,使得scipy.optimize必须最小化该函数。

我有模拟的主要问题之一,因此被调用的函数非常耗时,我看到方法L-BFGS_B(或者仅仅是BFGS)计算精确函数的值的几倍同一点!!!我不明白为什么会这样做而且它会杀了我。

一个功能非常简单的例子:

from scipy.optimize import minimize

def f3(x):
    print x
    return x[0]*x[0] + x[1]*x[1] + x[2]*x[2]

x0 = [3, -5, 7]

minimize(f3, x0, method = 'L-BFGS-B')

将返回:

[ 3. -5.  7.]
[ 3. -5.  7.]
[ 3.00000001 -5.          7.        ]
[ 3.         -4.99999999  7.        ]
[ 3.         -5.          7.00000001]
[ 2.67070726 -4.45117871  6.23165016]
[ 2.67070726 -4.45117871  6.23165016]
[ 2.67070727 -4.45117871  6.23165016]
[ 2.67070726 -4.4511787   6.23165016]
[ 2.67070726 -4.45117871  6.23165017]
[ -1.72315050e-06   1.66152263e-06  -1.59989476e-06]
[ -1.72315050e-06   1.66152263e-06  -1.59989476e-06]
[ -1.71315050e-06   1.66152263e-06  -1.59989476e-06]
[ -1.72315050e-06   1.67152263e-06  -1.59989476e-06]
[ -1.72315050e-06   1.66152263e-06  -1.58989476e-06]
  status: 0
 success: True
    nfev: 15
     fun: 8.2895683293030033e-12
       x: array([ -1.72315050e-06,   1.66152263e-06,  -1.59989476e-06])
 message: 'CONVERGENCE: NORM_OF_PROJECTED_GRADIENT_<=_PGTOL'
     jac: array([ -3.43630101e-06,   3.33304526e-06,  -3.18978951e-06])
     nit: 2

正如你在函数调用的打印列表中看到的那样,minimize在同一个x上多次调用f3。

这令人沮丧,因为我觉得这里浪费了很多时间。

如果有人可以在这里赐教我,我很高兴。感谢。

2 个答案:

答案 0 :(得分:3)

它会这样做,因为它不像你希望的那样小心。这个缺陷已添加到scipy bug跟踪器here中。当我在那里发布时,您可以通过自己缓存之前的值来解决这个问题。或者,您可以在jac=True调用中使用minimize并编写函数以返回该点和渐变的值。第一种方法的一个例子是:

import numpy as np
from scipy import optimize

class CacheLast(object):
    def __init__(self, f):
        self.f = f
        self.last_x = None
        self.last_f = None
        self.ncall = 0

    def __call__(self, x):
        if np.all(x == self.last_x):
            return self.last_f
        else:
            self.last_x = x
            self.last_f = self.f(x)
            self.ncall += 1
            return self.last_f

def f3(x):
    return x[0]*x[0] + x[1]*x[1] + x[2]*x[2]

x0 = [3, -5, 7] 

func = CacheLast(f3)
res = optimize.minimize(func, x0, method='L-BFGS-B')

print 'total function calls: ', res.nfev
print 'actual function evals: ', func.ncall

给出了:

total function calls:  15
actual function evals:  12

答案 1 :(得分:0)

它正在评估梯度的有限差分近似值。