我在具有多个输出层的RecurrentNetwork上使用PyBrain BackPropTrainer。我需要单独为每个图层获取训练错误。我该如何处理这个问题 - 即我是否扩展了源代码本身,或者有没有办法实现这一点?
我查看过BackPropTrainer.train()但是这只会为整个网络返回一个值,每个培训步骤。
This question地址获取单个模块的激活值,但仅限于培训后。
不确定从何处转过来。
谢谢!
答案 0 :(得分:0)
我不知道解决方案是如此简单。只需在每个训练步骤后测试网络,并使用由此产生的激活值。
如果确实需要获得训练期间产生的确切错误,可以将BackPropTrainer子类化并修改train和_calcDerivs函数以返回每个单元的错误。