我正在尝试在 Matlab 上使用 Netlab 优化和验证神经网络
我想找到每次迭代的误差值,这样我就可以在绘图上看到收敛。这可以通过存储命令窗口中显示的错误来完成,该错误通过使用errlog将options(1)设置为1来完成,是netopt输出。
然而,这些误差与mlperr 不同,后者在最后一次迭代中给出的误差值为0.5*(平方和误差)。如果我不知道它们是如何计算的,我就无法真正有效地使用它们。
有谁知道命令窗口中显示的错误代表什么(我使用缩放共轭梯度作为我的优化算法)?
有没有办法为网络运行的每次迭代存储mlperr ?
非常感谢任何帮助,非常感谢!
注意: 我试过做类似的事情: ftp: //ftp.dcs.shef.ac.uk/home/spc/com336/neural-lab-wk6.html
然而,由于某种原因,它给出了以 options(14) 下指定的迭代次数而不是 k 运行网络的不同结果。