在Python中逼近未知值

时间:2017-09-17 21:52:02

标签: python algorithm optimization mathematical-optimization numerical-methods

我需要近似一个未知值,一个将发散值与收敛值分开的界限。

我试图这样做:

# dont worry about the value of i, its one of many bounds checks
bounds = 1.0
for j in range(niters):
    if does_converge(i, bound):
        bound += bound / 2.0
    else:
        bound /= 2.0

我一直在谷歌上搜索更好的近似算法,但他们似乎都认为我对这个函数有所了解,但我没有。我得到的只是一个黑盒子,告诉我一个值是否发散。

任何想法都将不胜感激!

编辑:我不能肯定地说,但我会很好地假设函数是连续的,并且收敛的边界很可能在0和1之间。

1 个答案:

答案 0 :(得分:1)

根据给定的信息,没有什么比某种形式的二元搜索更好的了。

编辑:请参阅本答案末尾的编辑/备注以获得更好的解决方案(尽管没有严格的理论解释)!

这可以使用scipy的minimize_scalar来实现。使用method: golden

非常重要
  

Method Golden使用黄金分割搜索技术。它使用二分法的模拟来减少括号间隔。

问题在于没有任何真实价值的答案。只有是/否不允许形成任何类型的梯度信息或代理模型。

我假设:

  • 我们正在寻找黑盒子返回1
  • 的最小值
  • 黑盒子是确定性的

想法:构建一些包装函数,该函数的最小值为最小值,返回1。

由于x应该在[0,1]中,尝试最小化x,我们可以将包装函数表示为:x + 1 - black_box(x)。答案为0的每个解决方案都是> =每个解决方案的答案= 1(可能在绑定时需要一些安全措施;例如x + (1 - eps) - black_box(x),eps非常小!;可能需要选择xtol时考虑到)

代码:

from scipy import optimize

SECRET_VAL = 0.7

def black_box(x):
    if x > SECRET_VAL:
        return 1.
    else:
        return 0.

def wrapper(x):
    return x + 1 - black_box(x)

res = optimize.minimize_scalar(wrapper, bracket=(0,1), method='golden')

print(res)

输出:

     fun: 0.7000000042155881
    nfev: 44
     nit: 39
 success: True
       x: 0.7000000042155881

secret_val=0.04

     fun: 0.04000000033008555
    nfev: 50
     nit: 45
 success: True
       x: 0.040000000330085564

或者如果你知道你需要什么样的准确度(原始秘密0.7):

res = optimize.minimize_scalar(wrapper, bracket=(0,1), method='golden',
                            options={'xtol': 1e-2})

输出:

     fun: 0.7000733152965655
    nfev: 16                 !!!!!
     nit: 11
 success: True
       x: 0.7000733152965655

<强>注:

在这里编写一个基于二进制搜索的自定义解决方案可能会更好(不是100%肯定)。但是,考虑到缺少单峰性等假设,我们需要小心。

修改 好的......我终于设法将最小化问题转换为找根问题,这可以更有效地解决!

警告: 很明显,wrapper永远不会返回0.0的值(没有确切的根要查找)!

但是二分法大概是zero crossing within the new interval wiki

所以在这里找到两个点a, b,其中函数的符号正在改变,并将其解释为根(给定一些容差!)。

这种分析并不像前一种方法那样严格(没有给出太多的分析,但在scipy的文档中,在纯粹的最小化方法中更容易做到)。

def wrapper_bisect(x):
    return 1 - 2*black_box(x)

res = optimize.bisect(wrapper_bisect, 0, 1, xtol=1e-2, full_output=True)
print(res)

输出:

(0.6953125,       converged: True
           flag: 'converged'
 function_calls: 9
     iterations: 7
           root: 0.6953125)

鉴于上述假设(仅限于这些),这应该是理论上最优的算法(我们将函数评估的数量从16减少到9;优化目标更差,但在界限)!

最后一次测试:

secret: 0.9813; xtol: 1e-4

金:

    fun: 0.9813254238281632
    nfev: 25
     nit: 20
 success: True
       x: 0.9813254238291631

二分:

(0.98126220703125,       converged: True
           flag: 'converged'
 function_calls: 16
     iterations: 14
           root: 0.98126220703125)