给出下面的代码
encoder_inputs = Input(shape=(16, 70))
encoder = LSTM(latent_dim, return_state=True)
encoder_outputs, state_h, state_c = encoder(encoder_inputs)
# We discard `encoder_outputs` and only keep the states.
encoder_states = [state_h, state_c]
# Set up the decoder, using `encoder_states` as initial state.
decoder_inputs = Input(shape=(59, 93))
# We set up our decoder to return full output sequences,
# and to return internal states as well. We don't use the
# return states in the training model, but we will use them in inference.
decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True)
decoder_outputs,_,_ = decoder_lstm(decoder_inputs,
initial_state=encoder_states)
decoder_dense = TimeDistributed(Dense(93, activation='softmax'))
decoder_outputs = decoder_dense(decoder_outputs)
# Define the model that will turn
# `encoder_input_data` & `decoder_input_data` into `decoder_target_data`
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
如果我改变
decoder_dense = TimeDistributed(Dense(93, activation='softmax'))
到
decoder_dense = Dense(93, activation='softmax')
它仍然可以工作,但是哪种方法更有效?
答案 0 :(得分:2)
如果您的数据取决于时间,例如Time Series
数据或包含Video
的不同帧的数据,则时间Distributed Dense
层比简单的Dense
层有效
Time Distributed Dense
在dense
单元展开期间的每个时间步骤上都应用相同的GRU/LSTM
层。这就是为什么误差函数将在predicted label sequence
和actual label sequence
之间的原因。
使用return_sequences=False
,Dense
层仅在最后一个单元格中应用一次。当RNNs
用于分类问题时,通常是这种情况。
如果为return_sequences=True
,则Dense
层将像TimeDistributedDense
一样在每个时间步应用。
在您的模型中两者都相同,但是如果您将第二个模型更改为return_sequences=False
,则Dense
仅应用于最后一个单元格。
希望这会有所帮助。学习愉快!