Tensorboard和Dropout Layers

时间:2017-09-16 23:53:56

标签: tensorflow merge keras dropout

我有一个非常基本的查询。我已经使4个几乎相同(差异为输入形状)CNN并在连接到完全连接的图层的前馈网络时合并它们。

几乎相同的CNN的代码:

model3 = Sequential()
model3.add(Convolution2D(32, (3, 3), activation='relu', padding='same', 
                                     input_shape=(batch_size[3], seq_len, channels)))
model3.add(MaxPooling2D(pool_size=(2, 2)))
model3.add(Dropout(0.1))
model3.add(Convolution2D(64, (3, 3), activation='relu', padding='same'))
model3.add(MaxPooling2D(pool_size=(2, 2)))
model3.add(Flatten())

但是在张量板上,我看到所有的Dropout图层都是相互连接的,而Dropout1的颜色与Dropout2,3,4等颜色不同,它们都是相同的颜色。enter image description here

1 个答案:

答案 0 :(得分:3)

我知道这是一个老问题,但我自己也遇到了同样的问题,刚才我意识到发生了什么

只有在我们训练模型时才会应用Dropout。这应该在我们评估/预测时停用。为此,如果我们正在训练模型,keras会创建一个learning_phase占位符,设置为1.0。 此占位符是在您创建的第一个Dropout图层内创建的,并在所有这些图层中共享。那就是你在那里看到的!