训练神经网络与保持概率1相同,训练它没有辍学?

时间:2017-04-12 15:54:13

标签: machine-learning tensorflow neural-network

这似乎是一个更理论化的问题,我希望有人知道答案,我使用tensorflow来训练一个完全连接的深层神经网络,我将丢失应用到我的隐藏层,并在某些情况下调查辍学。

我知道丢失仅适用于输入层和隐藏层,为了评估网络,保持概率应为1.0。对于我想要训练我的网络没有辍学的情况....我可以在隐藏层上设置保持概率1进行训练,还是我必须从我的源代码中完全删除它?

问候

1 个答案:

答案 0 :(得分:1)

你可以保持你的代码不变,保持概率为1.0确实等于没有辍学,因为每次激活都会被保留。

相关问题