使用等同于tf.keras.layers中的tf.nn.rnn_cell.DropoutWrapper的退出包装器

时间:2019-04-11 21:36:57

标签: tensorflow keras deep-learning

以下是tf.nn.rnn_cell.DropoutWrapper的使用方式,例如使用GRUcell

        decoder_cell =tf.nn.rnn_cell.DropoutWrapper(tf.nn.rnn_cell.GRUCell(hidden_size),
                                                    input_keep_prob=dropout_ph,
                                                    output_keep_prob=dropout_ph)

如果我们要在GRU中使用Dropouttf.keras.layers,并且对于相同的输入/输出删除过程,应该使用:

    decoder_output = GRU(hidden_size, dropout=1-dropout_ph, return_sequences=True, return_state=False)(self.ground_truth_embedded)
    dropout_layer = Dropout(1-dropout_ph)

dropout中的GRU()参数定义了输入的辍学率,此后,我们为输出增加了一层辍学率。我说得对吗?

1 个答案:

答案 0 :(得分:1)

是的,您是正确的。

tf.keras.layers.GRU中的dropout关键字参数在输入上为dropout,下一个Dropout层在输出上。