在Keras LSTM模型上评估语言的困惑度

时间:2018-10-09 09:19:23

标签: keras nlp lstm language-model perplexity

我使用此LST网络创建了一种语言模型:

w2v_model = gensim.models.Word2Vec(sentences, size=150, window=4, min_count=2, workers=10)
pretrained_weights = w2v_model.wv.syn0
vocab_size, emdedding_size = pretrained_weights.shape
keras_lstm_model = Sequential()
keras_lstm_model.add(Embedding(input_dim = vocab_size, output_dim = emdedding_size, weights = [pretrained_weights]))
keras_lstm_model.add(LSTM(units = emdedding_size))
keras_lstm_model.add(Dense(units = vocab_size))
keras_lstm_model.add(Activation('sigmoid'))
self.keras_lstm_model.compile(optimizer = 'adam', loss = 'sparse_categorical_crossentropy', metrics = ['mae','acc'])

我的目标是估计给定句子中特定单词的概率。 现在,我要评估困惑。 我要如何针对此模型执行此操作?还是我需要以某种方式更改它才能使之成为可能?

0 个答案:

没有答案