使用tf.keras功能api通过BatchNormalization添加内核,bias,活动正则化器的正确方法是什么?

时间:2019-05-27 17:37:43

标签: python keras tf.keras

由于BatchNormalization在激活之前进行,所以我假设我不能将activity_regularizers参数指定为密集层的一部分。那是对的吗?那么我应该在激活后像这样使用ActivityRegularization吗?

x = Dense(64, kernel_regularizer=l2(0.01), bias_regularizer=l2(0.01))(input)
x = BatchNormalization()(x)
x = Activation("relu")(x)
x = ActivityRegularization(l1=0.0, l2=0.01)(x)
...

0 个答案:

没有答案