我正在使用n折交叉验证进行冗长的Keras训练过程。对于日志记录,我使用的是keras.callbacks.TensorBoard
类。这将为每个要训练的模型创建n个日志文件,大小为5-8 mb。由于计算机资源稀少,我不得不频繁停止和继续训练,这是我使用Keras initial_epoch
设置所做的。
这可行,但是每次我重新开始培训过程时,都会创建n个新的日志文件。这是一个问题,因为它浪费了大量空间。
如何解决这个问题?我只对模型验证损失和准确性感兴趣,因此我不需要TensorBoard存储的所有数据。具体来说,是真正的events.out.tfevents.<timestamp>.<hostname>
大文件给我带来了麻烦。
我的回调设置为:
tb = TensorBoard(log_dir = join(fold_dir, 'logs'),
write_graph = True, write_images = True)
model.fit_generator(train,
steps_per_epoch = len(train),
initial_epoch = initial_epoch,
epochs = 500,
shuffle = True,
validation_data = val,
validation_steps = len(val),
callbacks = [tb])