我正在尝试使用 fminunc 函数进行凸优化。但是,在我的情况下,我采用的是关于 logx 的梯度。让我的目标函数为 F。那么梯度将为
dF/dx = (dF/dlogx) * (1/x)
= > dF/dlogx = (dF/dx) * x
所以
logx_new = logx_old + learning_rate * x * (dF/logx)
x_new = exp(logx_new)
我如何在 fminunc 中实现它
我正在尝试使用 fminunc 函数进行凸优化。但是,在我的情况下,我采用的是关于 logx 的梯度。让我的目标函数为 F。那么梯度将为
dF/dx = (dF/dlogx) * (1/x)
= > dF/dlogx = (dF/dx) * x
所以
logx_new = logx_old + learning_rate * x * (dF/logx)
x_new = exp(logx_new)
我如何在 fminunc 中实现它
这是可能的,并在文档中描述:
如果还可以计算 fun 的梯度并且 GradObj 选项为“on”,由 options = optimset('GradObj','on') 设置,则函数 fun 必须在第二个输出参数中返回梯度值 g ,一个向量,在 x 处。
例如:如果f = @(x) x.^2;
然后df/dx = 2*x
你可以使用
function [f df] = f_and_df(x)
f = x.^2;
if nargout>1
df = 2*x;
end
end
然后,您可以将该函数传递给fminunc
:
options = optimset('GradObj','on');
x0 = 5;
[x,fval] = fminunc(@f_and_df,x0,options);
对于您的 logx 梯度,这将变为:
function [f df] = f_and_df(x)
f = ...;
if nargout>1
df = x * (dF/logx);
end
end
并且fminunc
保持不变。
如果需要,还可以使用匿名函数:
f_and_df2 = @(x) deal(x(1).^2+x(2).^2,[2*x(1) 2*x(2)]);
[x,fval] = fminunc(f_and_df2,[5, 4],optimset('GradObj','on'))
附加示例f = (log(x))^2
function [f df_dlogx] = f_and_df(x)
f = log(x).^2;
df_dx = 2*log(x)./x;
df_dlogx = df_dx.* x;
end
接着:
>>x0=3;
>>[x,fval] = fminunc(@f_and_df,x0,optimset('GradObj','on'))
x =
0.999999990550151
fval =
8.92996430424197e-17
对于多个变量,例如 f(x,y),您必须将变量放入向量中,例如:
function [f df_dx] = f_and_df(x)
f = x(1).2 + x(2).^2;
df_dx(1) = 2*x(1);
df_dx(2) = 2*x(2);
end
该函数对应于抛物面。当然,您还必须对初始起始参数使用向量,在这种情况下,例如:x0=[-5 3]