当文本数据具有超过300个标签时,如何构建LSTM模型

时间:2019-07-17 09:33:46

标签: python machine-learning keras lstm text-classification

我正在使用tensorflow keras api使用长期短期模型构建文本分类模型。

但是我有大约300个班级可以预测。我也没有300类的数据,例如4000条记录。

所以我已经完成了将每行句子的文本拆分成多行单词并将其分配给同一个类的过程

模型层如下所示:

model = Sequential()
model.add(Embedding(n_most_common_words, emb_dim, input_length = X.shape[1]))
model.add(SpatialDropout1D(0.7))
model.add(LSTM(64, dropout = 0.7, recurrent_dropout = 0.7))
model.add(Dense(312, activation = 'softmax'))
model.compile(optimizer = 'adam', loss = 'categorical_crossentropy', metrics = ['acc'])
print(model.summary())

任何人都可以告诉我们,这些层是否足以构建具有300多个类/标签的模型? 如果不是,那我应该如何改进模型及其准确性,因为我在这里获得的模型准确性仅为50%

0 个答案:

没有答案