标签: deep-learning cnn semantic-segmentation
我正在训练CNN U-net模型以进行图像的语义分割,但是训练损失的减少速度似乎比验证损失要快得多,这正常吗?
我损失了0.002
培训和验证损失可以在下面的图片中看到:
答案 0 :(得分:0)
是的,这完全正常。
随着NN的学习,它从训练样本中推断出,它在每次迭代中都了解得更多。培训期间从未使用过验证集,这就是为什么它如此重要的原因。
基本上:
我们通常使用早停来避免最后一次:基本上,如果您的验证损失在X次迭代中没有改善,请停止训练(X为5或10之类的值)。