在任何keras层中,dropout层和dropout参数之间有什么区别,两者都是出于相同的目的或不同的目的。
like:model.add(LSTM(100,dropout = 0.2,recurrent_dropout = 0.2))
model.add(Dropout(0.2))
谢谢。
答案 0 :(得分:1)
是的,它们具有相同的功能,即在该层进行线性变换(权重的乘积和偏置的相加)之前使用参数作为辍学对象。退出层也可以在激活层之前使用。
recurrent_dropout也具有相同的功能,但方向不同(通常dropout在输入和输出之间,在时间戳之间)