我正在使用CNN体系结构(请参见下面的代码)来进行文本分类任务(具有5个类)。 我正在使用的数据是从here
下载的 reviews_Home_and_Kitchen_5.json我使用Glove模型('glove.840B.300d.txt')的嵌入为1000个句子创建了一个句子嵌入矩阵
模型会编译,您可以在下面看到摘要。但是,每当我尝试拟合模型时,都会不断出现以下错误: 值错误:层密集的输入0与层不兼容:预期输入形状的轴-1的值为896,但接收到形状为[None,128]的输入 >
我在网上发现的解决方案涉及使用不同版本的TF或使用不同的损失函数。我都尝试了两次,但无法解决问题。
有人可以帮忙吗?
sequence_input = Input(shape=(len(glove_sentence_embedding_matrix),), dtype='int32')
embedded_sequences = Embedding(input_dim=glove_results.shape[0], output_dim=300, weights=[glove_results], trainable=False, name='embedding')(sequence_input)
l_cov1= Conv1D(128, 5, activation='relu', name='conv1D_1')(embedded_sequences) # padding='same'
l_pool1 = MaxPooling1D(5, name='MaxPool_1')(l_cov1)
l_cov2 = Conv1D(128, 5, activation='relu', name='conv1D_2')(l_pool1)
l_pool2 = MaxPooling1D(5, name='MaxPool_2')(l_cov2)
l_cov3 = Conv1D(128, 5, activation='relu', name='conv1D_3')(l_pool2)
l_pool3 = MaxPooling1D(5, name='MaxPool_3')(l_cov3)
l_flat = Flatten(name='flatten')(l_pool3)
l_dense = Dense(128, activation='relu', name='dense')(l_flat)
preds = Dense(5, activation='softmax', name='preds')(l_dense)
model = Model(sequence_input, preds, name='CNN_for_text_classification')
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
print(model.summary())
model.fit(glove_sentence_embedding_matrix, df.overall, epochs=2, verbose=1) ## glove_sentence_embedding_matrix.shape = (1000,300)
答案 0 :(得分:0)
在l_dense
中将单位数更改为896。或在其之前添加包含896个单位的密集层。