Pytorch是否将嵌入保存为编码器类的一部分

时间:2018-03-26 20:29:42

标签: python pytorch

所以我第一次使用pytorch。我试图将权重保存到文件中。我使用的是具有GRU和嵌入组件的Encoder类。我想确保在保存编码器值时,我将获得嵌入值。最初我的代码使用state_dict()将值复制到我自己的字典中,并传递给torch.save()。我应该寻找一些方法来保存这个嵌入组件,还是它是更大编码器的一部分? Encoder是nn.Module的子类。这是一个链接:

http://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html#sphx-glr-intermediate-seq2seq-translation-tutorial-py

def make_state(self, converted=False):
    if not converted:
        z = [
            {
                'epoch':0,
                'arch': None,
                'state_dict': self.model_1.state_dict(),
                'best_prec1': None,
                'optimizer': self.opt_1.state_dict(),
                'best_loss': self.best_loss
            },
            {
                'epoch':0,
                'arch':None,
                'state_dict':self.model_2.state_dict(),
                'best_prec1':None,
                'optimizer': self.opt_2.state_dict(),
                'best_loss': self.best_loss
            }
        ]
    else:
        z = [
            {
                'epoch': 0,
                'arch': None,
                'state_dict': self.model_1.state_dict(),
                'best_prec1': None,
                'optimizer': None , # self.opt_1.state_dict(),
                'best_loss': self.best_loss
            },
            {
                'epoch': 0,
                'arch': None,
                'state_dict': self.model_2.state_dict(),
                'best_prec1': None,
                'optimizer': None, # self.opt_2.state_dict(),
                'best_loss': self.best_loss
            }
        ]
    #print(z)
    return z
    pass

def save_checkpoint(self, state=None, is_best=True, num=0, converted=False):
    if state is None:
        state = self.make_state(converted=converted)
        if converted: print(converted, 'is converted.')
    basename = hparams['save_dir'] + hparams['base_filename']
    torch.save(state, basename + '.' + str(num)+ '.pth.tar')
    if is_best:
        os.system('cp '+ basename + '.' + str(num) + '.pth.tar' + ' '  +
                  basename + '.best.pth.tar')

https://discuss.pytorch.org/t/saving-and-loading-a-model-in-pytorch/2610/3

这是另一个链接

1 个答案:

答案 0 :(得分:0)

不,您不需要显式保存嵌入值。保存模型的state_dict将保存与该模型相关的所有变量,包括嵌入权重 您可以通过循环查找状态字典包含的内容为 -

for var_name in model.state_dict():
    print(var_name)