最大化有界变量的方差

时间:2015-09-05 20:44:48

标签: statistics variance maximization

令x_1,...,x_i,...,x_p为p实数,使得对于所有i,0 <= x_i <= b。 也就是说,每个x_i可以取0和b之间的任何值。 我想找到{x_i}的值来最大化它们之间的差异。

你有任何提示吗? 我想将此结果用于我的示例代码。 或者,这个问题不是很明确吗?

起初我想到了x_1 = 0,x_2 = ... = x_p = b之类的东西,但后来我发现当p稍微大一点时,这并没有最大化方差。

由于

1 个答案:

答案 0 :(得分:0)

评论之后,我做了一些关于你的问题的数值证明的试验。还有一些工作要做,但我希望它能让你走上正轨。此外,我使用过python,我不知道这对你是否合适。您可以在matlabR中找到相同的方法。

我使用方差= E [X ^ 2] - E [X] ^ 2的众所周知的属性,使得导数更容易。 (如果您有疑问,请检查wiki)。

pythonscipy.optimize有一个方法minimize,可以在数值上最小化函数。您可以选择解决问题的算法;我对可能的算法并不熟悉,我一直在寻找众所周知的普通梯度下降(好吧,至少我希望你知道它),我认为一个封闭的可能是SLSQP,但老实说我对这些细节并不是100%肯定。

最后,我没有确定你最小化的函数是凸的,或者确定它是否具有局部最小值,但结果看起来很好。

我在下面的python中给你代码,以防它有用,但底线是我建议你:

  • 选择您熟悉的语言/包
  • 选择优化算法
  • 很高兴证明函数是凸的(以便解决方案收敛)
  • 设置要进行验证的参数

以下代码。希望它有所帮助。

我不会为衍生品发布代数,我希望你能自己制作代数。并且你必须考虑到你正在最大化而不是最小化,所以你必须乘以-1,正如我所希望的那样,我希望非常清楚here(寻找“最大化”)。

设置,

In [1]:

from scipy.optimize import minimize
import numpy as np

你正在最大化的函数,即方差(记住技巧E [X ^ 2] - E [X] ^ 2和-1),

In [86]:

def func(x):
    return (-1) * (np.mean([xi**2 for xi in x]) - np.mean(x)**2)

该函数的衍生物xi的每个x,(我希望你能推导并得到相同的结果),

In [87]:

def func_deriv(x):
    n = len(x)
    l = []
    for i in range(n):
        res = (2 * x[i] / n) - ((2/(n**2)) * (x[i] + sum([x[j] for j in range(n) if j != i])))
        l +=  [(-1) * res]
    return np.array(l)

实际上,在编写这个函数时,我在衍生和python实现中都犯了很多错误。但是有一个技巧可以帮助很多,即通过在每个维度中加上和减去一个小epsil并计算曲线的斜率see wiki来以数字方式检查导数。这将是近似导数的函数,

In [72]:

def func_deriv_approx(x, epsilon=0.00001):
    l = []
    for i in range(len(x)):
        x_plus = [x[j]+((j == i)*epsilon) for j in range(len(x))]
        x_minus = [x[j]-((j == i)*epsilon) for j in range(len(x))]
        res = (-1) * (func(x_plus) - func(x_minus)) / (2*epsilon)
        l += [res]
    return l

然后我检查了func_deriv_approxfunc_deriv的一系列值。

最小化自己。如果我初始化我们怀疑是正确的解决方案的值,它可以正常工作,它只迭代一次并给出预期的结果,

In [99]:

res = minimize(func, [0, 0, 10, 10], jac=func_deriv, bounds=[(0,10) for i in range(4)],
               method='SLSQP', options={'disp': True})
Optimization terminated successfully.    (Exit mode 0)
            Current function value: -25.0
            Iterations: 1
            Function evaluations: 1
            Gradient evaluations: 1

In [100]:

print(res.x)
[  0.   0.  10.  10.]

(请注意,您可以使用所需的长度,因为funcfunc_deriv的编写方式可以接受任何长度。)

您可以像这样随机初始化

In [81]:

import random
xinit = [random.randint(0, 10) for i in range(4)]

In [82]:

xinit
Out[82]:
[1, 2, 8, 7]

然后最大化是,

In [83]:

res = minimize(func, xinit, jac=func_deriv, bounds=[(0,10) for i in range(4)],
               method='SLSQP', options={'disp': True})
Optimization terminated successfully.    (Exit mode 0)
            Current function value: -25.0
            Iterations: 3
            Function evaluations: 3
            Gradient evaluations: 3
In [84]:

print(res.x)
[  1.27087156e-13   1.13797860e-13   1.00000000e+01   1.00000000e+01]

或者最后长度= 100,

In [85]:

import random
xinit = [random.randint(0, 10) for i in range(100)]

In [91]:

res = minimize(func, xinit, jac=func_deriv, bounds=[(0,10) for i in range(100)],
               method='SLSQP', options={'disp': True})
Optimization terminated successfully.    (Exit mode 0)
            Current function value: -24.91
            Iterations: 23
            Function evaluations: 22
            Gradient evaluations: 22
In [92]:

print(res.x)
[  2.49143492e-16   1.00000000e+01   1.00000000e+01  -2.22962789e-16
  -3.67692105e-17   1.00000000e+01  -8.83129256e-17   1.00000000e+01
   7.41356521e-17   3.45804774e-17  -8.88402036e-17   1.31576404e-16
   1.00000000e+01   1.00000000e+01   1.00000000e+01   1.00000000e+01
  -3.81854094e-17   1.00000000e+01   1.25586928e-16   1.09703896e-16
  -5.13701064e-17   9.47426071e-17   1.00000000e+01   1.00000000e+01
   2.06912944e-17   1.00000000e+01   1.00000000e+01   1.00000000e+01
  -5.95921560e-17   1.00000000e+01   1.94905365e-16   1.00000000e+01
  -1.17250430e-16   1.32482359e-16   4.42735651e-17   1.00000000e+01
  -2.07352528e-18   6.31602823e-17  -1.20809001e-17   1.00000000e+01
   8.82956806e-17   1.00000000e+01   1.00000000e+01   1.00000000e+01
   1.00000000e+01   1.00000000e+01   3.29717355e-16   1.00000000e+01
   1.00000000e+01   1.00000000e+01   1.00000000e+01   1.00000000e+01
   1.43180544e-16   1.00000000e+01   1.00000000e+01   1.00000000e+01
   1.00000000e+01   1.00000000e+01   2.31039883e-17   1.06524134e-16
   1.00000000e+01   1.00000000e+01   1.00000000e+01   1.00000000e+01
   1.77002357e-16   1.52683194e-16   7.31516095e-17   1.00000000e+01
   1.00000000e+01   3.07596508e-17   1.17683979e-16  -6.31665821e-17
   1.00000000e+01   2.04530928e-16   1.00276075e-16  -1.20572493e-17
  -3.84144993e-17   6.74420338e-17   1.00000000e+01   1.00000000e+01
  -9.66066818e-17   1.00000000e+01   7.47080743e-17   4.82924982e-17
   1.00000000e+01  -9.42773478e-17   1.00000000e+01   1.00000000e+01
   1.00000000e+01   1.00000000e+01   1.00000000e+01   5.01810185e-17
  -1.75162038e-17   1.00000000e+01   6.00111991e-17   1.00000000e+01
   1.00000000e+01   7.62548028e-17  -6.90706135e-17   1.00000000e+01]