我正在使用keras创建LSTM模型。训练时,我遇到了这个错误。
ValueError: Error when checking target: expected dense_4 to have shape (1,) but got array with shape (34,)
这是我的模特
model = Sequential()
model.add(Embedding(max_words, embedding_dim, input_length=maxlen))
model.add(LSTM(128, activation='relu'))
model.add(Dense(64, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(units = 34 ,activation='softmax'))
model.layers[0].set_weights([embedding_matrix])
model.layers[0].trainable = False
model.compile(optimizer='rmsprop',loss='sparse_categorical_crossentropy',metrics=['acc'])
模型摘要:
Layer (type) Output Shape Param #
=================================================================
embedding_2 (Embedding) (None, 15, 50) 500000
_________________________________________________________________
lstm_2 (LSTM) (None, 128) 91648
_________________________________________________________________
dense_3 (Dense) (None, 64) 8256
_________________________________________________________________
dropout_2 (Dropout) (None, 64) 0
_________________________________________________________________
dense_4 (Dense) (None, 34) 2210
=================================================================
Total params: 602,114
Trainable params: 102,114
Non-trainable params: 500,000
_________________________________________________________________
我打电话给
history = model.fit(X_train, y_train,epochs=100,batch_size=128)
y_train
是形状为(299, 34)
的单次热编码标签。
X_train
的形状为(299, 15)
。
我不确定为什么模型正在寻找shape(1,),因为我看到dense_4 (Dense)
的输出形状为`(None,34)。
答案 0 :(得分:1)
好的,我发现了问题。我将此作为答案发布,以便它可以帮助面临同样问题的其他人。
这不是层配置,而是错误的丢失功能。
我使用sparse_categorical_crossentropy
作为损失,其中标签必须具有形状[batch_size]
且dtype为int32或int64。我已更改为categorical_crossentropy
,它期望标签为[batch_size,num_classes]。
keras抛出的错误消息具有误导性。