张量流中的激活函数之间是否存在差异? tf.nn.tanh vs tf.tanh

时间:2017-07-06 12:45:56

标签: machine-learning tensorflow computer-vision

我想建立一个神经网络,我问自己这两个功能之间是否存在差异?

tf.nn.tanh vs tf.tanh

4 个答案:

答案 0 :(得分:5)

很容易确认它们是相同的:

In [1]: import tensorflow as tf

In [2]: tf.nn.tanh
Out[2]: <function tensorflow.python.ops.math_ops.tanh>

In [3]: tf.tanh
Out[3]: <function tensorflow.python.ops.math_ops.tanh>

In [4]: tf.nn.tanh == tf.tanh
Out[4]: True

In [5]: tf.__version__
Out[5]: '0.11.0rc1'

答案 1 :(得分:4)

不,没有区别。

tensorflow/tensorflow/python/ops/nn.py文件中(定义{{​​1}}的位置),我们可以找到tf.nn的定义:

tanh

此外,还有from tensorflow.python.ops.math_ops import tanh here

TODO

因此,可能会从# TODO(cwhipkey): sigmoid and tanh should not be exposed from tf.nn. 包中删除tanh。

因此tf.nn(已定义here)是要使用的。

答案 2 :(得分:2)

它们与tensorflow.python.ops.math_ops.tanh完全相同。

同样适用于tf.sigmoidtf.nn.sigmoid

答案 3 :(得分:2)

没有任何区别。

两者的可用性可能是由于库不断发展并仍在改变其API,仍处于成熟的初始状态。 我们可以期待图书馆在最终设置主API时避免那些基本的重复(我期望2.0版本)。