具有密集层的Tensorflow激活功能

时间:2019-08-14 17:58:27

标签: python tensorflow activation relu

我想知道是否可以定义诸如tanh之类的自定义激活函数来约束密集层或完全连接层的12个输出,如下所示:

If X[0:6] > 1 then X[0:6] else 1
If X[6:12]  < 0 then X[6:12] else 0

X是我的denseLayer.outputs

我找到了一些教程来创建具有梯度的自定义激活函数,例如在Medium上使用LeakyRelu6,但是它在所有输出上总是受到约束。

在教程中,他们正在做的是:

If X >= 0 and X <= 6 then X
Elif X >6 then 6
Else 0.2*X

总而言之,我想了解我如何拥有一个激活函数,该函数在我的例子中像X那样约束X?

链接:https://medium.com/@chinesh4/custom-activation-function-in-tensorflow-for-deep-neural-networks-from-scratch-tutorial-b12e00652e24

0 个答案:

没有答案