实际上什么是乙状结肠衍生物的目的?

时间:2017-11-24 21:54:00

标签: machine-learning neural-network computer-science derivative sigmoid

老实说我正在学习神经网络,但我在激活部分有一个问题。 我知道这个问题很普遍,并且在互联网上有很多解释。但我仍然不清楚。

  

为什么我们需要推导出sigmoid函数?为什么我们不用   它?

如果你给出明确的解释,那将是件好事。谢谢。 我在youtube上看过很多视频,我已经阅读了很多关于它的文章,但仍然没有得到它。 谢谢你的帮助。

1 个答案:

答案 0 :(得分:0)

你的问题并不完全清楚,但我认为你在问:"为什么我们不使用Sigmoid函数而不必计算其衍生物?"。

你的问题也非常广泛,所以我的答案非常宽泛而且冗长,你需要阅读更多内容以了解所有细节,我会尝试提供链接。

  1. 激活功能:顾名思义,我们想知道某个节点是否在" on"或" off",sigmoid函数提供了一种将连续变量(X)转换为{0,1}范围的简便方法。

    formula

  2. 用例可能会有所不同,此功能具有某些属性,因此这就是为什么有许多替代"激活"功能,如 tanh ReLU 等。阅读更多内容:https://en.wikipedia.org/wiki/Sigmoid_function

    1. 区分(衍生):我们希望为大多数模型找到所有激活函数的最佳β参数。要做到这一点,我们通常希望尽量减少成本"描述我们的模型在预测观测数据方面有多好的功能。解决此优化问题的一种方法是Gradient Descent。梯度下降的每个步骤通过遵循多维成本函数空间来更新参数。为此,它需要激活函数的梯度。这对于使用梯度下降来优化网络的反向传播很重要,它要求您使用的激活函数(在大多数情况下)可以区分。 在此处阅读更多内容:https://en.wikipedia.org/wiki/Gradient_descent
    2. 我建议你有一个更深层次的问题,你把它带到机器学习堆栈交换站点之一。