我们可以为神经网络的隐藏层和输出层使用不同的激活函数吗? 使用这种方案有明显的优势吗?
答案 0 :(得分:1)
对于网络的最后一层,激活单元也依赖于任务。
对于中间层,现在大多数人都使用 Relu ,因为它计算速度更快,并且在反向传播的早期就不会消失。
答案 1 :(得分:0)
简而言之 - 是的,你可以。使用sigmoid函数作为隐藏层激活是一种常见的方法,以确保非线性特征,并为特定任务选择的输出中的激活(取决于您尝试建模的内容以及您使用的成本函数)。
答案 2 :(得分:0)
如果要实现预测任务而不是分类,则可以在输出层中使用线性组合,因为sigmoid函数会将输出范围限制为(0,1),这通常应用于基于阈值的分类问题。 / p>