所以我第一次使用pytorch。我试图将权重保存到文件中。我使用的是具有GRU和嵌入组件的Encoder类。我想确保在保存编码器值时,我将获得嵌入值。最初我的代码使用state_dict()将值复制到我自己的字典中,并传递给torch.save()。我应该寻找一些方法来保存这个嵌入组件,还是它是更大编码器的一部分? Encoder是nn.Module的子类。这是一个链接:
def make_state(self, converted=False):
if not converted:
z = [
{
'epoch':0,
'arch': None,
'state_dict': self.model_1.state_dict(),
'best_prec1': None,
'optimizer': self.opt_1.state_dict(),
'best_loss': self.best_loss
},
{
'epoch':0,
'arch':None,
'state_dict':self.model_2.state_dict(),
'best_prec1':None,
'optimizer': self.opt_2.state_dict(),
'best_loss': self.best_loss
}
]
else:
z = [
{
'epoch': 0,
'arch': None,
'state_dict': self.model_1.state_dict(),
'best_prec1': None,
'optimizer': None , # self.opt_1.state_dict(),
'best_loss': self.best_loss
},
{
'epoch': 0,
'arch': None,
'state_dict': self.model_2.state_dict(),
'best_prec1': None,
'optimizer': None, # self.opt_2.state_dict(),
'best_loss': self.best_loss
}
]
#print(z)
return z
pass
def save_checkpoint(self, state=None, is_best=True, num=0, converted=False):
if state is None:
state = self.make_state(converted=converted)
if converted: print(converted, 'is converted.')
basename = hparams['save_dir'] + hparams['base_filename']
torch.save(state, basename + '.' + str(num)+ '.pth.tar')
if is_best:
os.system('cp '+ basename + '.' + str(num) + '.pth.tar' + ' ' +
basename + '.best.pth.tar')
https://discuss.pytorch.org/t/saving-and-loading-a-model-in-pytorch/2610/3
这是另一个链接
答案 0 :(得分:0)
不,您不需要显式保存嵌入值。保存模型的state_dict将保存与该模型相关的所有变量,包括嵌入权重 您可以通过循环查找状态字典包含的内容为 -
for var_name in model.state_dict():
print(var_name)