反向传播直到神经网络中的输入层

时间:2014-08-02 11:53:53

标签: neural-network

我有一个关于神经网络反向传播的问题。假设我们有一些训练有素的DNN用于某些数据。然后我们将损坏的数据输入NN并反向传播错误,直到第一个隐藏层,但直到输入层(也就是说我们计算输入神经元的增量)。错误术语是否向我们显示“干净”和“损坏”向量之间的不匹配?

1 个答案:

答案 0 :(得分:0)

如果我正确地解释了这个问题,你有两个输入向量i1 =(a,b,...)和i2 =(c,d,...)。然后你有两个相应的输出向量o1 =(v,w,...)和o2 =(x,y,...)。

i1是有效训练数据的一部分,用于向NN传授模型。完成此操作后,如果将模型正确应用于i2,您是否希望使用NN检测无效o2与有效输出之间的差值?

如果是这种情况,请使用所有有效的输入案例正常训练NN,然后提供测试用例(对应于已知损坏的输出向量的输入向量)并收集结果并禁用反向传播。也就是说,一旦NN学会了正确的模型,停止训练并简单地将“干净”的结果与损坏的结果进行比较。

注意:您也可以训练神经网络接受一组与一些其他过程的输入相对应的值和一组与该过程的(可能已损坏的)输出相对应的值并作为输出产生差异作为输入在清洁值和损坏的值之间,但是为了避免自己进行减法而额外的数据训练和框架可能是不值得的。

相关问题