张量板日志可以删除或压缩吗?

时间:2019-03-24 19:07:31

标签: tensorflow logging keras deep-learning tensorboard

我正在使用n折交叉验证进行冗长的Keras训练过程。对于日志记录,我使用的是keras.callbacks.TensorBoard类。这将为每个要训练的模型创建n个日志文件,大小为5-8 mb。由于计算机资源稀少,我不得不频繁停止和继续训练,这是我使用Keras initial_epoch设置所做的。

这可行,但是每次我重新开始培训过程时,都会创建n个新的日志文件。这是一个问题,因为它浪费了大量空间。

如何解决这个问题?我只对模型验证损失和准确性感兴趣,因此我不需要TensorBoard存储的所有数据。具体来说,是真正的events.out.tfevents.<timestamp>.<hostname>大文件给我带来了麻烦。

我的回调设置为:

tb = TensorBoard(log_dir = join(fold_dir, 'logs'),
                 write_graph = True, write_images = True)
model.fit_generator(train,
                    steps_per_epoch = len(train),
                    initial_epoch = initial_epoch,
                    epochs = 500,
                    shuffle = True,
                    validation_data = val,
                    validation_steps = len(val),
                    callbacks = [tb])

0 个答案:

没有答案