带有手套的Bi-LSTM-残化问题

时间:2019-10-16 11:06:28

标签: lstm spacy lemmatization glove

尝试使用keras在手套中嵌入手套来实现双向LSTM模型。模型架构如下:

enter image description here

该模型在运行时无需任何输入数据预处理就可以正常工作。下图显示了模型的输出:

enter image description here

作为预处理的一部分,使用Spacy对输入数据进行定理,然后将其传递到模型中。

合法化预处理代码:

nlp = spacy.load(“en_core_web_sm-2.1.0”)
doc = nlp(sentence)
lemma_sent = “ “.join([token.lemma_ for token in doc])

下面的方法适合模型吗?

model.fit(data_train,train_label,epoch=5,batch_size=32,verbose=True,validation_data=[data_test,test_label])

但是模型为每个历元提供了如下输出(训练和测试数据的定理后):

enter image description here

请帮助我们解释为什么该模型需要进行lemmatization。进行和不进行lemmatization的模型摘要都相同。

0 个答案:

没有答案