Keras嵌入层导致尺寸问题

时间:2018-12-17 08:32:17

标签: python tensorflow keras autoencoder sequence-to-sequence

我目前正在尝试在使用keras功能API构建的序列到序列自动编码器中包含一个嵌入层。

模型代码如下:

#Encoder inputs
encoder_inputs = Input(shape=(None,))

#Embedding
embedding_layer = Embedding(input_dim=n_tokens, output_dim=2)
encoder_embedded = embedding_layer(encoder_inputs)

#Encoder LSTM
encoder_outputs, state_h, state_c = LSTM(n_hidden, return_state=True)(encoder_embedded)
lstm_states = [state_h, state_c]


#Decoder Inputs
decoder_inputs = Input(shape=(None,)) 

#Embedding
decoder_embedded = embedding_layer(decoder_inputs)

#Decoder LSTM
decoder_lstm = LSTM(n_hidden, return_sequences=True, return_state=True, )
decoder_outputs, _, _ = decoder_lstm(decoder_embedded, initial_state=lstm_states)


#Dense + Time
decoder_dense = TimeDistributed(Dense(n_tokens, activation='softmax'), input_shape=(None, None, 256))
#decoder_dense = Dense(n_tokens, activation='softmax', )
decoder_outputs = decoder_dense(decoder_outputs)

model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'])

模型是这样训练的:

model.fit([X, y], X, epochs=n_epoch, batch_size=n_batch)

X和y的形状为(n_samples,n_seq_len)

模型的编译工作无懈可击,而在尝试训练时,我将始终得到:

  

ValueError:检查目标:预期的time_distributed_1时出错   有3个维度,但数组的形状为(n_samples,n_seq_len)

有人有主意吗?

Keras版本为2.2.4
Tensorflow后端版本1.12.0

1 个答案:

答案 0 :(得分:0)

在这种自动编码器中,由于最后一层是softmax分类器,因此您需要对标签进行一次热编码:

from keras.utils import to_categorical

one_hot_X = to_categorical(X)

model.fit([X, y], one_hot_X, ...)

请注意,由于the Dense layer is applied on the last axis,因此无需将Dense层包装在TimeDistributed层中。