我的代码如下:
tfidf_matrix=dataset[:0,10]
model = Sequential()
input_shape = tfidf_matrix.shape
model.add(LSTM(32, input_dim=2, return_sequences=True, input_shape=input_shape))
model.add(LSTM(64, input_dim=2, input_shape=input_shape, return_sequences=True))
model.add(Dropout(0.5))
model.add(Dense(1))
model.add(Activation('sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='rmsprop')
model.fit(X_train, Y_train, batch_size=20, nb_epoch=11)
score = model.evaluate(X_test, Y_test, batch_size=20)
我的数据集的摘要如下(用于二进制分类):
197.2468966,210.0796552,0.579310345,899.0698276,721.1689655,95.52396817,90.59689707,2.620225801,80.53794681,152.6919308,0
200.7320616,213.6853999,0.653851798,856.1059428,841.3118122,97.48691388,92.08916212,2.753934571,100.4151651,161.5956683,1
225.5475209,250.124516,0.735856126,878.6098414,924.2562758,110.4606583,101.748855,2.885445826,77.50833011,109.0694556,0
我不断收到这样的错误:"Error when checking input: expected lstm_9_input to have 3 dimensions, but got array with shape (51, 10)" in model.fit()
请帮助
答案 0 :(得分:0)
首先,仅应在模型的第一层中使用参数input_shape
。其余图层将自动计算其输入形状。
第二,您应该仅在第一个LSTM层中使用参数input_dim
和input_shape
中的一个。参数input_dim
指定序列的每个时间步具有多少维,而input_shape
指定序列的长度和维。您应该不在输入形状中包含批次大小。因此,如果您的训练数据的形状为(batch_size, seq_length, dim)
,则第一层的输入形状应为(seq_length, dim)
。
在您的情况下,您的数据似乎有10个时间步长,并且只有1维(即每个时间步长一个数字)。因此,您的训练数据应具有(batch_size, 10, 1)
的形状,而您在第一层中的input_shape
应该是(10, 1)
。