我正在使用一个模型,其中tensorflow relu函数用于激活隐藏层。所以基本上模型就是这样做的
h = tf.nn.relu(zw)
其中zw是前一层输出中的所有元素乘以权重。根据张量流的relu的定义,它将返回
max(zw,0)
因此,张量的每个元素的最大数字介于0和zw的每个元素的值之间。
我如何应用自己的relu函数,如果它大于0,则返回元素zw,如果小于0,则zw元素乘以0.1?
答案 0 :(得分:1)
你可以这样做:
h = tf.where(zw <0,0.1 * zw,zw)