3

我正在尝试使用 fminunc 函数进行凸优化。但是,在我的情况下,我采用的是关于 logx 的梯度。让我的目标函数为 F。那么梯度将为

dF/dx = (dF/dlogx) * (1/x)
= > dF/dlogx = (dF/dx) * x

所以

logx_new = logx_old + learning_rate * x * (dF/logx)
x_new = exp(logx_new)

我如何在 fminunc 中实现它

4

1 回答 1

7

这是可能的,并在文档中描述:

如果还可以计算 fun 的梯度并且 GradObj 选项为“on”,由 options = optimset('GradObj','on') 设置,则函数 fun 必须在第二个输出参数中返回梯度值 g ,一个向量,在 x 处。

具有自定义渐变的 fminunc

例如:如果f = @(x) x.^2;然后df/dx = 2*x你可以使用

function [f df] = f_and_df(x)
    f = x.^2;
    if nargout>1
        df = 2*x;
    end
end

然后,您可以将该函数传递给fminunc

options = optimset('GradObj','on');
x0 = 5;
[x,fval] = fminunc(@f_and_df,x0,options);

具有 logx 梯度的 fminunc

对于您的 logx 梯度,这将变为:

function [f df] = f_and_df(x)
    f = ...;
    if nargout>1
        df =  x * (dF/logx);
    end
end

并且fminunc保持不变。

具有匿名函数的 fminunc

如果需要,还可以使用匿名函数:

f_and_df2 = @(x) deal(x(1).^2+x(2).^2,[2*x(1)  2*x(2)]);
[x,fval] = fminunc(f_and_df2,[5, 4],optimset('GradObj','on'))

具有 logx 梯度的 fminunc 示例

附加示例f = (log(x))^2

function [f df_dlogx] = f_and_df(x)
    f = log(x).^2;

    df_dx = 2*log(x)./x;
    df_dlogx = df_dx.* x;
end

接着:

>>x0=3;
>>[x,fval] = fminunc(@f_and_df,x0,optimset('GradObj','on'))
x =
   0.999999990550151

fval =
   8.92996430424197e-17

具有自定义梯度和多个变量的 fminunc 示例

对于多个变量,例如 f(x,y),您必须将变量放入向量中,例如:

function [f df_dx] = f_and_df(x)
    f = x(1).2 + x(2).^2;

    df_dx(1) = 2*x(1);
    df_dx(2) = 2*x(2);
end

该函数对应于抛物面。当然,您还必须对初始起始参数使用向量,在这种情况下,例如:x0=[-5 3]

于 2012-05-14T12:15:26.327 回答