在Caffe中,TanHLayer向后计算误差梯度w.r.t. sigmoid输入?

时间:2018-06-01 13:27:52

标签: machine-learning neural-network deep-learning caffe sigmoid

我是Caffe的新手。

TanHLayer的Doxygen文档说明了,

Backward_cpu() 计算错误梯度w.r.t. sigmoid输入。

http://caffe.berkeleyvision.org/doxygen/classcaffe_1_1TanHLayer.html

为什么需要sigmoid输入,而不是TanH? 这让我很困惑。 请给我一些提示。

我问Caffe用户组,但没有得到答案。 https://groups.google.com/forum/#!topic/caffe-users/oxRDDOy_xN8

感谢。

0 个答案:

没有答案