标签: deep-learning nlp lstm recurrent-neural-network language-model
我试图了解如何在“ bi LSTM堆栈”的情况下使用bi-LSTM训练LM。
对于正向LSTM,我们只需要在最后一个隐藏向量的顶部添加一个分类层即可。 如果我的例子是:“这个苹果很好吃,我喜欢”,例如,如果我们使用5个窗口,则x表示“这个苹果非常”,y表示“美味”。
但是我不知道如何使用bi LSTM进行相同的操作。我想这里有某种掩蔽载体,但我不确定。