使用fminunc函数

时间:2012-05-14 11:34:49

标签: matlab convex-optimization

我正在尝试使用fminunc函数进行凸优化。但是,在我的情况下,我正在考虑与logx相关的渐变。让我的目标函数为F.然后渐变

dF/dx = (dF/dlogx) * (1/x)
= > dF/dlogx = (dF/dx) * x

所以

logx_new = logx_old + learning_rate * x * (dF/logx)
x_new = exp(logx_new)

如何在fminunc

中实现此功能

1 个答案:

答案 0 :(得分:7)

这可能并在documentation

中进行了描述

如果还可以计算乐趣渐变并且GradObj选项为“on”,则由 options = optimset('GradObj','on') 那么函数fun必须在第二个输出参数中返回渐变值g,一个向量,在x。

带有自定义渐变的

fminunc

例如:如果f = @(x) x.^2;然后df/dx = 2*x,您可以使用

function [f df] = f_and_df(x)
    f = x.^2;
    if nargout>1
        df = 2*x;
    end
end

然后,您可以将该功能传递给fminunc

options = optimset('GradObj','on');
x0 = 5;
[x,fval] = fminunc(@f_and_df,x0,options);

带有logx渐变的fminunc

对于logx渐变,它变为:

function [f df] = f_and_df(x)
    f = ...;
    if nargout>1
        df =  x * (dF/logx);
    end
end

fminunc保持不变。

带有匿名函数的

fminunc

如果需要,您还可以使用匿名函数:

f_and_df2 = @(x) deal(x(1).^2+x(2).^2,[2*x(1)  2*x(2)]);
[x,fval] = fminunc(f_and_df2,[5, 4],optimset('GradObj','on'))

带有logx渐变的fminunc示例

f = (log(x))^2

的其他示例
function [f df_dlogx] = f_and_df(x)
    f = log(x).^2;

    df_dx = 2*log(x)./x;
    df_dlogx = df_dx.* x;
end

然后:

>>x0=3;
>>[x,fval] = fminunc(@f_and_df,x0,optimset('GradObj','on'))
x =
   0.999999990550151

fval =
   8.92996430424197e-17

具有自定义渐变和多个变量的fminunc示例

对于多个变量,例如f(x,y),您必须将变量放入向量中,例如:

function [f df_dx] = f_and_df(x)
    f = x(1).2 + x(2).^2;

    df_dx(1) = 2*x(1);
    df_dx(2) = 2*x(2);
end

此功能对应于抛物面。 当然,您还必须使用向量作为初始启动参数,在这种情况下例如:x0 = [ - 5 3]