在存在advanced_activations层的情况下添加退出层

时间:2019-06-22 08:41:26

标签: keras neural-network

我使用Keras具有以下NN架构:

http://localhost:3000/server/test

我想知道在from keras import Sequential from keras.layers import Dense import keras model = Sequential() model.add(Dense(16, input_dim=32)) model.add(keras.layers.advanced_activations.PReLU()) model.add(Dense(8)) model.add(keras.layers.advanced_activations.PReLU()) model.add(Dense(4)) model.add(Dense(1, activation='sigmoid')) 之前或之后添加model.add(Dropout(0.5))是否有任何区别。换句话说,在哪里存在存在advanced_activations层的地方添加辍学层的正确位置在哪里?

谢谢。

1 个答案:

答案 0 :(得分:2)

在激活之前还是之后都没关系,因为对于大多数激活f(0)= 0,然后在辍学之前或之后都会产生相同的结果。