我在具有多个输出层的 RecurrentNetwork 上使用 PyBrain BackPropTrainer。我需要分别获取这些层中的每一层的训练错误。我应该怎么做 - 即我是否扩展源代码本身,或者有没有办法做到这一点已经提供?
我查看了BackPropTrainer.train() ,但是这仅返回整个网络的单个值,每个训练步骤。
这个问题解决了获取单个模块的激活值,但仅在训练之后。
不知道从这里转向哪里。
谢谢!
我在具有多个输出层的 RecurrentNetwork 上使用 PyBrain BackPropTrainer。我需要分别获取这些层中的每一层的训练错误。我应该怎么做 - 即我是否扩展源代码本身,或者有没有办法做到这一点已经提供?
我查看了BackPropTrainer.train() ,但是这仅返回整个网络的单个值,每个训练步骤。
这个问题解决了获取单个模块的激活值,但仅在训练之后。
不知道从这里转向哪里。
谢谢!