标签: machine-learning tensorflow neural-network
这似乎是一个更理论化的问题,我希望有人知道答案,我使用tensorflow来训练一个完全连接的深层神经网络,我将丢失应用到我的隐藏层,并在某些情况下调查辍学。
我知道丢失仅适用于输入层和隐藏层,为了评估网络,保持概率应为1.0。对于我想要训练我的网络没有辍学的情况....我可以在隐藏层上设置保持概率1进行训练,还是我必须从我的源代码中完全删除它?
问候
答案 0 :(得分:1)
你可以保持你的代码不变,保持概率为1.0确实等于没有辍学,因为每次激活都会被保留。