我正在TensorFlow中训练GPT2文本生成模型,并在我的文本语料库中执行一个纪元。我的问题是,我怎样才能每隔10个步骤保存模型?我的模型在第100步突然停止训练,只剩下20步了。。。。
我知道Model_Checkpoint()回调,但似乎无法在steps
参数中将epoch
替换为save_freq
。
tf.keras.callbacks.ModelCheckpoint(
filepath, monitor='val_loss', verbose=0, save_best_only=False,
save_weights_only=False, mode='auto', save_freq='epoch', **kwargs)
https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint
答案 0 :(得分:1)
设置save_freq = 1
。这应该节省每一步。我不建议这样做,因为它会在保存的I / O上花费大量时间,并且会减慢您的训练速度。