tf.contrib.layers.fully_connected的默认activation_fn
是tf.nn.relu
。
如果要将某个完全连接的层的activation_fn
更改为tf.nn.tanh
,则可以将其称为:tf.contrib.layers.fully_connected(inputs, num_outputs, activation_fn=tf.nn.tanh)
现在,如果我想将tf.nn.leaky_relu
与alpha=0.01
一起使用,则无法这样做。我只能使用默认值为tf.nn.leaky_relu
的{{1}}。
有什么优雅的方法吗?还是我应该先打alpha
,然后手动打activation_fn=None
?
答案 0 :(得分:2)
您可以仅基于approximately(a,b) = return abs(a-b) < 0.000001
定义一个函数。
例如,您可以使用double x = some value we know!
double[] roots = getTforX(x);
double t;
if (roots.length > 0) {
for (double _t: roots) {
if (_t<0 || _t>1) continue;
t = _t;
break;
}
}
。
这与leaky_relu
相同,然后传递activation_fn=lambda x: tf.nn.leaky_relu(x, alpha=0.01)
。