训练和推理时间中Alpha辍学的行为

时间:2018-07-12 11:00:00

标签: tensorflow neural-network deep-learning

我正在使用张量流实现self normalizing neural network。当前存在tf.nn.selutf.contrib.nn.alpha_dropout形式的张量流“原语”,这应该使此过程变得容易。 我的问题是tf.contrib.nn.alpha_dropout。我期望它具有一个布尔开关,用于您在训练中和进行推断时,以及与其他激活功能一起使用的常用dropout函数。 在作者的原始implementation中,我们确实看到他们在selu dropout函数(dropout_selu)中具有此布尔开关(训练)。

我缺少什么吗?

1 个答案:

答案 0 :(得分:2)

tf.contrib.nn.alpha_dropout应该被视为tf.nn.dropout的类似物。 The latter function not 也没有训练转换的参数。请勿将其与tf.layers.dropout混淆,后者将tf.nn.dropout包装并具有一个training参数。我们可以看到in the implementationlayers版本返回nn.dropout的结果或根据training开关的身份。以类似的方式在alpha_dropout周围定义自己的包装应该相对容易。

为避免造成任何混乱:layers.dropout最终将调用的“ keras层”版本称为上一步实现。

相关问题