验证集的损失比训练集的损失小

时间:2018-10-23 04:02:22

标签: image-processing machine-learning deep-learning conv-neural-network

我正在为一些医学数据训练图像超分辨率CNN。 我将数据集分为300名患者进行训练,50名患者进行测试。

我正在使用50%的辍学率,并且意识到辍学会导致similar phenomenon。但是,我不是在谈论培训阶段的培训损失和测试阶段的测试损失。

这两个指标都是在测试阶段产生的。我正在使用测试模式来预测 BOTH 训练患者和测试患者。结果很有趣。

就地面真相之间的超分辨图像的损失而言,测试患者要低于训练患者。

下图显示了训练集和测试集的损失在各个时期都在稳步下降。但是测试损失总是比培训低。我很困惑地解释为什么。另外,在第60和80之间的小故障对我来说也很奇怪。如果有人对这些问题有解释,将不胜感激。 loss chart for both training and testing set over epoch 编辑: 损耗由预测输出与地面真相之间的root mean square error计算 CNN以X-Y对训练,例如上图中的训练损失可通过以下方式计算

def rmse(x, y):
    p = model.predict(x)
    return numpy.sqrt(skimage.measure.compare_mse(p, y))

0 个答案:

没有答案
相关问题