如何加载训练有素的MXnet模型?

时间:2017-11-08 22:14:18

标签: deep-learning mxnet

我已经使用MXnet培训了一个网络,但我不确定如何保存和加载参数供以后使用。首先,我定义并训练网络:

    dataIn = mx.sym.var('data')
    fc1 = mx.symbol.FullyConnected(data=dataIn, num_hidden=100)
    act1 = mx.sym.Activation(data=fc1, act_type="relu")
    fc2 = mx.symbol.FullyConnected(data=act1, num_hidden=50)
    act2 = mx.sym.Activation(data=fc2, act_type="relu")
    fc3 = mx.symbol.FullyConnected(data=act2, num_hidden=25)
    act3 = mx.sym.Activation(data=fc3, act_type="relu")
    fc4 = mx.symbol.FullyConnected(data=act3, num_hidden=10)
    act4 = mx.sym.Activation(data=fc4, act_type="relu")
    fc5 = mx.symbol.FullyConnected(data=act4, num_hidden=2)
    lenet = mx.sym.SoftmaxOutput(data=fc5, name='softmax',normalization = 'batch')


# create iterator around training and validation data
train_iter = mx.io.NDArrayIter(data=data[:ntrain], label = phen[:ntrain],batch_size=batch_size, shuffle=True)
val_iter = mx.io.NDArrayIter(data=data[ntrain:], label=phen[ntrain:], batch_size=batch_size)

# create a trainable module on GPU 0
lenet_model = mx.mod.Module(symbol=lenet, context=mx.gpu())
# train with the same
lenet_model.fit(train_iter,
                eval_data=val_iter,
                optimizer='adam',
                optimizer_params={'learning_rate':0.00001},
                eval_metric='f1',
                batch_end_callback = mx.callback.Speedometer(batch_size, 10),
                num_epoch=1000)

这个模型在测试集上运行良好,所以我想保留它。接下来,我保存网络布局和参数化:

lenet.save('./testNet_symbol.mxnet')
lenet_model.save_params('./testNet_module.mxnet')

我在加载网络时可以找到的所有文档似乎都在训练例程中实现了保存功能,以便在每个时代结束时保存网络参数。我没有在训练过程中设置这些检查点。其他方法使用mx.model.FeedForward类,这似乎不合适。还有其他方法从.json文件加载网络,由于我的保存功能,我没有这个文件。如何在网络完成培训后保存/加载网络?

1 个答案:

答案 0 :(得分:3)

你只需要这样做就可以保存:

lenet_model.save_checkpoint('lenet', num_epoch, save_optimizer_states=True)

如果states标志设置为True,则会创建3个文件,否则为2个文件:

.params(权重), .json(符号), .states

加载this

lenet_model = mx.mod.Module.load(prefix,epoch)
lenet_model.bind(for_training=False, data_shapes=[('data', (1,3,224,224))])
相关问题