tensorflow dropout - 改变后要求权重归一化以保持1的概率?

时间:2017-12-09 08:45:46

标签: tensorflow

我想使用dropout来提高模型的最终预测准确度。

据我所知:
1)使用辍学我们将神经元随机分配到零 2)因此,在下一层中,神经元的值仅依赖于先前层神经元的子集。
3)因此,在训练期间,训练神经元的权重比它们应该更强(与辍学率成反比),以补偿前一层中的'droped'神经元。
4)训练结束后,当我们想要使用所有神经元而没有辍学时,我们需要通过将每层中的神经元乘以(1-dropout rate)进行补偿。

我对么?如果是这样,tf.nn.dropout()会处理这个问题,还是我需要手动完成?

在此先感谢:)

1 个答案:

答案 0 :(得分:1)

当您执行辍学时,在该图层中选择随机神经元并使其权重为0.当模型训练时,您将获得两个输出,模型的体系结构和由权重组成的h5文件。培训完成后,您可以将这些文件保存在存储中,并可以随时加载进行预测。您不必手动增加任何神经元的重量。 TF负责照顾它。