3

我正在尝试实现正则化逻辑回归算法,使用fminunc()Octave 中的函数来最小化成本函数。正如一般建议的那样,我想将成本函数绘制为函数迭代的fminunc()函数。函数调用如下所示 -

[theta, J, exit_flag] = ...
    fminunc(@(t)(costFunctionReg(t, X, y, lambda)), initial_theta, options);

options = optimset('GradObj', 'on', 'MaxIter', 400, 'OutputFcn',@showJ_history);

[showJ-history是预期的输出函数;我希望我已经options正确设置了参数]。

但是,我在互联网上找不到很好的资源来强调如何编写这个输出函数,具体来说,什么参数被传递给它fminunc(),它返回什么(如果有什么特别需要的话fminunc())。

有人可以提一些有用的链接或帮助我编写输出函数。

4

1 回答 1

1

我想你可以参考源代码。还要考虑这个例子:

1;
function f = __rosenb (x)
  # http://en.wikipedia.org/wiki/Rosenbrock_function
  n = length (x);
  f = sumsq (1 - x(1:n-1)) + 100 * sumsq (x(2:n) - x(1:n-1).^2);
endfunction

function bstop = showJ_history(x, optv, state)
    plot(optv.iter, optv.fval, 'x')
    # setting bstop to true stops optimization
    bstop = false;
endfunction

opt = optimset('OutputFcn', @showJ_history);
figure()
xlabel("iteration")
ylabel("cost function")
hold on
[x, fval, info, out] = fminunc (@__rosenb, [5, -5], opt);
于 2013-07-12T13:09:02.810 回答