Keras U净损失在不同倍数上没有持续减少

时间:2018-12-18 14:43:26

标签: python keras deep-learning cross-validation

我正在使用Keras中编程的U-Net进行输入数据的分割。事实是,我在数据集上使用KFold交叉验证(k = 5),但是在不同折叠倍数获得相同结果(甚至不接近)时遇到了问题。

使用(1-jaccard)作为自定义损失(与骰子系数非常相似),对于某些折(〜0.1),我得到了很好的结果,但在其他折中,损失停留在第一个时代(〜0.8)并完全不更新。对于我来说,这种行为似乎没有意义,因为褶皱主要包含相同的信息。这似乎不是数据集或丢失的问题,因为问题在不同的执行过程中绝对随机地出现在不同的褶皱处。您对此有任何输入吗?一些指针,一些东西要阅读?

更多信息:给定我的特定数据集,我使用的批处理量非常大(大约1000)。我正在使用Adam优化器,并且尝试增加和减少学习率均无济于事。我用0.2个验证间隔对模型进行拟合,以100个时间点及早停止。我使用的是U-net的this guy's实现的稍有不同的版本。

0 个答案:

没有答案