标签: neural-network deep-learning
我正在用MNIST数据集训练我自己的ANN实现,以识别数字。
在其他情况下,隐藏层中的ReLU激活为我提供了回归问题的最佳结果,但是,如果我在分类问题中将softmax激活与隐藏层中的ReLU一起用于输出层,则softmax会由于高ReLU获得的值,所以我不得不使用Sigmoid或其他有界激活函数。
我想知道这是不可避免的还是我可以使用某种技术来避免这种情况?