如何在Julia中使用漏水relu功能?
以下命令不起作用:
nn.leaky_relu(features, alpha)
在python中,有this function:
tf.nn.leaky_relu(
features,
alpha=0.2,
name=None
)
谢谢
修改
得到@phg的答案,我将这个函数用于Julia:
function leaky_relu(features, alpha)
features = convert(TensorFlow.Tensor{Any}, features)
alpha = convert(TensorFlow.Tensor{Any}, alpha)
return max(alpha.*features, features)
end
答案 0 :(得分:1)
我认为TensorFlow.jl
只复制C ++ API,而不是Python。而leaky_relu
is defined只在Python中使用。但是实现应该很容易从原始版本转换为Julia:
def leaky_relu(features, alpha=0.2, name=None):
with ops.name_scope(name, "LeakyRelu", [features, alpha]):
features = ops.convert_to_tensor(features, name="features")
alpha = ops.convert_to_tensor(alpha, name="alpha")
return math_ops.maximum(alpha * features, features)
(我没有安装任何库,所以我无法测试任何东西。)