当num_layers> 1时,PyTorch GRU重量形状不匹配

时间:2018-10-17 08:47:32

标签: pytorch recurrent-neural-network rnn

PyTorch的GRU文档(https://pytorch.org/docs/stable/nn.html#gru)说,变量weight_ih_l[k]的形状为3*hidden_size x input_size,与层无关。

但是,当我打印出每个砝码的形状时

gru = nn.GRU(...)
for name, p in gru.named_parameters():
    print(name,p.shape)

带有hidden_size=2input_size=1num_layers=3bidirectional=True, 我只为(6,1)得到weight_ih_l0,而得到(6,4)weight_ih_l1的{​​{1}}, 似乎表明l2的形状是weight_ih的{​​{1}}。

这是文档错误吗?还是关于GRU的我不了解的东西?

0 个答案:

没有答案