当我再次进行再培训时,为什么验证准确性大大提高了?

时间:2020-07-18 06:58:44

标签: tensorflow machine-learning keras deep-learning conv-neural-network

问题:第二次训练模型时,我的验证准确性有了很大的提高。想知道复制的原因,并且在可能的情况下。

我将模型输出保存为“ .h5”格式。

在我训练模型的第一轮的最后几百个时期中,我的验证准确性徘徊在“ 〜0.47 ”左右。以准确性“ 0.6709 ”结束。

最终培训结果-第一次培训enter image description here

这是我模型的图层。我使用Keras-Tuner提取了最佳的模型架构(即为了提高验证准确性)

enter image description here

在“〜750,000”培训示例中,我使用的批次大小为“ 512”:1/1473。

我继续使用该模型进行训练(使用Keras负荷模型),并从“ 0.5564 ”开始训练。但是,验证准确性一直跃升至“ 0.6560 ”。改善了近20%。然后它开始下降趋势。旁注-改组是训练之前数据集预处理的一部分:

第二次培训enter image description here

所以我有几个问题:

  1. 为什么当我重新加载模型以进行重新训练时,验证精度会跳得如此之高-但是当通过历时进行正常训练时,它从未突破“ 0.48 ”吗?
  2. 为什么当我重新训练模型时,模型从训练精度“ 0.6709 ”下降到“ 0.5564 ”有那么大的下降吗?(有人告诉我这是由于批次大小引起的训练,但在512 / 750,000时,应该是一个相对较小的下降吗?除非数据被重新组合...)

1 个答案:

答案 0 :(得分:0)

我将一些验证数据改组为训练数据。那就是跳的原因。