使用ReLU作为激活函数的注意事项

时间:2017-01-08 23:27:14

标签: python numpy machine-learning neural-network activation-function

我正在实施神经网络,并希望使用ReLU作为神经元的激活功能。此外,我还通过SDG和反向传播来训练网络。我使用范式XOR问题测试神经网络,到目前为止,如果我使用逻辑函数或双曲正切作为激活函数,它会正确地对新样本进行分类。

我一直在阅读使用Leaky ReLU作为激活函数的好处,并在Python中实现它,如下所示:

def relu(data, epsilon=0.1):
    return np.maximum(epsilon * data, data)

其中np NumPy 的名称。相关的衍生物实现如下:

def relu_prime(data, epsilon=0.1):
    if 1. * np.all(epsilon < data):
        return 1
    return epsilon

使用此功能作为激活我得到的结果不正确。例如:

  • 输入= [0,0] - &gt;输出= [0.43951457]

  • 输入= [0,1] - &gt;输出= [0.46252925]

  • 输入= [1,0] - &gt;输出= [0.34939594]

  • 输入= [1,1] - &gt;输出= [0.37241062]

可以看出,输出与预期的XOR输出大不相同。所以问题是,有没有特别考虑使用ReLU作为激活功能?

请不要犹豫,向我询问更多背景信息或代码。提前谢谢。

编辑:衍生产品中存在一个错误,因为它只返回一个浮点值,而不是NumPy数组。正确的代码应该是:

def relu_prime(data, epsilon=0.1):
    gradients = 1. * (data > epsilon)
    gradients[gradients == 0] = epsilon
    return gradients

2 个答案:

答案 0 :(得分:7)

您的relu_prime功能应该是:

def relu_prime(data, epsilon=0.1):
    gradients = 1. * (data > 0)
    gradients[gradients == 0] = epsilon
    return gradients

注意数据矩阵中每个值与0的比较,而不是epsilon。这来自leaky ReLUs的标准定义,在1x > 0时会创建epsilon的分段渐变。

我无法评论泄漏的ReLU是否是XOR问题的最佳选择,但这应解决您的梯度问题。

答案 1 :(得分:6)

简短回答

不要将ReLU与二进制数字一起使用。它旨在以更高的价值运作。当没有负值时也避免使用它,因为它基本上意味着你使用的线性激活函数不是最好的。最适合与卷积神经网络一起使用。

答案很长

不能说python代码有什么问题,因为我在Java中编码。但从逻辑上讲,我认为在这种情况下使用ReLU是一个糟糕的决定。由于我们预测XOR,因此NN [0,1]的值范围有限。这也是S形激活函数的范围。使用ReLU,您可以使用值[0,infinity]进行操作,这意味着由于它是XOR,因此您将永远不会使用大量值。但是ReLU仍然会考虑这些值,你将得到的错误会增加。这就是为什么你在50%的时间里得到正确答案的原因。事实上,这个值可以低至0%,高达99%。故事的道德 - 在决定使用哪个激活函数时,尝试将NN中输入值的范围与激活函数值的范围相匹配。