将自己的激活函数应用于张量流中的图层

时间:2017-08-24 14:58:37

标签: python tensorflow activation-function

我正在使用一个模型,其中tensorflow relu函数用于激活隐藏层。所以基本上模型就是这样做的

h = tf.nn.relu(zw)

其中zw是前一层输出中的所有元素乘以权重。根据张量流的relu的定义,它将返回

max(zw,0)

因此,张量的每个元素的最大数字介于0和zw的每个元素的值之间。

我如何应用自己的relu函数,如果它大于0,则返回元素zw,如果小于0,则zw元素乘以0.1?

1 个答案:

答案 0 :(得分:1)

你可以这样做:

h = tf.where(zw <0,0.1 * zw,zw)