朱莉娅 - 如何使用漏水relu?

时间:2018-04-23 13:51:21

标签: tensorflow neural-network julia

如何在Julia中使用漏水relu功能?

以下命令不起作用:

nn.leaky_relu(features, alpha) 

在python中,有this function

tf.nn.leaky_relu(
    features,
    alpha=0.2,
    name=None
)

谢谢

修改

得到@phg的答案,我将这个函数用于Julia:

function leaky_relu(features, alpha)
    features = convert(TensorFlow.Tensor{Any}, features)
    alpha = convert(TensorFlow.Tensor{Any}, alpha)
    return max(alpha.*features, features)
end

1 个答案:

答案 0 :(得分:1)

我认为TensorFlow.jl只复制C ++ API,而不是Python。而leaky_relu is defined只在Python中使用。但是实现应该很容易从原始版本转换为Julia:

def leaky_relu(features, alpha=0.2, name=None):
    with ops.name_scope(name, "LeakyRelu", [features, alpha]):
        features = ops.convert_to_tensor(features, name="features")
        alpha = ops.convert_to_tensor(alpha, name="alpha")
        return math_ops.maximum(alpha * features, features)

(我没有安装任何库,所以我无法测试任何东西。)