我正在为一些医学数据训练图像超分辨率CNN。 我将数据集分为300名患者进行训练,50名患者进行测试。
我正在使用50%的辍学率,并且意识到辍学会导致similar phenomenon。但是,我不是在谈论培训阶段的培训损失和测试阶段的测试损失。
这两个指标都是在测试阶段产生的。我正在使用测试模式来预测 BOTH 训练患者和测试患者。结果很有趣。
就地面真相之间的超分辨图像的损失而言,测试患者要低于训练患者。
下图显示了训练集和测试集的损失在各个时期都在稳步下降。但是测试损失总是比培训低。我很困惑地解释为什么。另外,在第60和80之间的小故障对我来说也很奇怪。如果有人对这些问题有解释,将不胜感激。
编辑:
损耗由预测输出与地面真相之间的root mean square error
计算
CNN以X-Y对训练,例如上图中的训练损失可通过以下方式计算
def rmse(x, y):
p = model.predict(x)
return numpy.sqrt(skimage.measure.compare_mse(p, y))