以下是tf.nn.rnn_cell.DropoutWrapper
的使用方式,例如使用GRUcell
:
decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size),
input_keep_prob=dropout_ph,
output_keep_prob=dropout_ph)
如果我们要在GRU
中使用Dropout
和tf.keras.layers
,并且对于相同的输入/输出删除过程,应该使用:
decoder_output = GRU(hidden_size, dropout=1-dropout_ph, return_sequences=True, return_state=False)(self.ground_truth_embedded)
dropout_layer = Dropout(1-dropout_ph)
dropout
中的GRU()
参数定义了输入的辍学率,此后,我们为输出增加了一层辍学率。我说得对吗?
答案 0 :(得分:1)
是的,您是正确的。
tf.keras.layers.GRU中的dropout关键字参数在输入上为dropout,下一个Dropout层在输出上。