tensorflow:如何将tf.nn.leaky_relu和alpha用作tf.contrib.layers.fully_connected的activation_fn?

时间:2018-08-16 17:57:54

标签: tensorflow

tf.contrib.layers.fully_connected的默认activation_fntf.nn.relu

如果要将某个完全连接的层的activation_fn更改为tf.nn.tanh,则可以将其称为:tf.contrib.layers.fully_connected(inputs, num_outputs, activation_fn=tf.nn.tanh)

现在,如果我想将tf.nn.leaky_relualpha=0.01一起使用,则无法这样做。我只能使用默认值为tf.nn.leaky_relu的{​​{1}}。

有什么优雅的方法吗?还是我应该先打alpha,然后手动打activation_fn=None

1 个答案:

答案 0 :(得分:2)

您可以仅基于approximately(a,b) = return abs(a-b) < 0.000001定义一个函数。

例如,您可以使用double x = some value we know! double[] roots = getTforX(x); double t; if (roots.length > 0) { for (double _t: roots) { if (_t<0 || _t>1) continue; t = _t; break; } }

这与leaky_relu相同,然后传递activation_fn=lambda x: tf.nn.leaky_relu(x, alpha=0.01)