不同的Pytorch随机初始化使用相同的种子

时间:2017-09-23 17:48:04

标签: python random pytorch

我对Pytorch很新,所以如果问题非常简单,我会道歉。 我的问题是我已经定义了类net1并使用固定的手动种子随机初始化了它的参数。

random.seed(opt.manualSeed)
torch.manual_seed(opt.manualSeed)
if torch.cuda.is_available():
    torch.cuda.manual_seed_all(opt.manualSeed)    

class net1(nn.Module):
    def __init__(self):
        super(net1, self).__init__()
        self.main_body = nn.Sequential(
            # Define the layers...#
        )
    def forward(self, x):
        return self.main_body(x)

# custom weights initialization called on net1
def weights_init(m):
    classname = m.__class__.__name__
    if classname.find('Conv') != -1:
        m.weight.data.normal_(0.0, 0.02)
    elif classname.find('BatchNorm') != -1:
        m.weight.data.normal_(1.0, 0.02)
        m.bias.data.fill_(0)

net1_ = net1()
net1_.apply(weights_init)

但是,当我在代码中添加另一个类net2时:

class net2(nn.Module):
    def __init__(self):
        super(net2, self).__init__()
        self.main_body = nn.Sequential(
            # Define the layers
        )
    def forward(self, x):
        return self.main_body(x)

net2_ = net2()

并实例化它,即使我没有在其他任何地方使用它并且它没有连接到我的主图(它建立在net1_上),我从我的图中得到不同的输出。 这是一个合理的结果吗?

1 个答案:

答案 0 :(得分:0)

我假定执行顺序为:

random.seed(opt.manualSeed)
torch.manual_seed(opt.manualSeed)
if torch.cuda.is_available():
    torch.cuda.manual_seed_all(opt.manualSeed)    

if with_net2:
    net2_ = net2()

net1_ = net1()
net1_.apply(weights_init)

如果是这样,这是预期的。

这是因为在net2.__init__期间调用net2_ = net2()时, 火炬的随机数生成器用于随机初始化net2_中的权重。 因此,如果net1_.applywith_net2 = True相比,执行with_net2 = False时随机数生成器的状态将有所不同。