使用pytorch进行句子分类的多类(使用nn.LSTM)

时间:2019-12-04 13:41:54

标签: python machine-learning neural-network pytorch torch

我有一个网络,是我从this教程中学到的,我想将句子作为输入(已经完成),结果只有一个线张量。

在教程中,这句话“约翰的狗喜欢食物”,返回了一个1列张量:

tensor([[-3.0462, -4.0106, -0.6096],
[-4.8205, -0.0286, -3.9045],
[-3.7876, -4.1355, -0.0394],
[-0.0185, -4.7874, -4.6013]])

...和班级列表:

tag_list[ “name”, “verb”, “noun”]

每行都有标签与单词相关联的可能性。 (第一个单词具有 [-3.0462,-4.0106, -0.6096 ] 向量,其中最后一个元素对应于最大得分标记“名词”)

该教程的数据集如下:

training_data = [
    ("The dog ate the apple".split(), ["DET", "NN", "V", "DET", "NN"]),
    ("Everybody read that book".split(), ["NN", "V", "DET", "NN"])
]

我希望我的格式如下:

training_data = [
    ("Hello world".split(), ["ONE"]),
    ("I am dog".split(), ["TWO"]),
    ("It's Britney glitch".split(), ["THREE"])
]

参数定义为:

class LSTMTagger(nn.Module):
    def __init__(self, embedding_dim, hidden_dim, vocab_size, tagset_size):
        super(LSTMTagger, self).__init__()
        self.hidden_dim = hidden_dim
        self.word_embeddings = nn.Embedding(vocab_size, embedding_dim)
        self.lstm = nn.LSTM(embedding_dim, hidden_dim)
        self.hidden2tag = nn.Linear(hidden_dim, tagset_size)

    def forward(self, sentence):
        embeds      = self.word_embeddings(sentence)
        lstm_out, _ = self.lstm(embeds.view(len(sentence), 1, -1))
        tag_space   = self.hidden2tag(lstm_out.view(len(sentence), -1))
        tag_scores  = F.log_softmax(tag_space, dim=1)
        return tag_scores

截至目前,输入和输出的大小不匹配,我得到: ValueError:预期输入的batch_size(2)与目标batch_size(1)相匹配。

由于大小不匹配,标准函数不接受输入:

loss        = criterion(tag_scores, targets)

我已经读到最后一层可以定义为nn.Linear以便压缩输出,但是我似乎无法获得任何结果。尝试了其他损失函数

如何更改它,以使模型能够对句子(而不是每个单词)进行分类,就像原始教程中那样?

1 个答案:

答案 0 :(得分:0)

我通过简单地获取最后一个的隐藏状态来解决了这个问题

tag_space   = self.hidden2tag(lstm_out[-1])