为什么CNN模型倾向于将大多数实例分类为特定类?

时间:2019-09-16 18:21:23

标签: keras deep-learning classification vgg-net bias-neuron

我将Vgg16模型与数据集一起用于二进制分类问题(良性或恶性)。我使用转移学习对模型进行了训练,结果证明该模型将大多数图像预测为良性的。有趣的是,在我的训练数据中,良性训练样本的数量为136,恶性样本的数量为144。那么,为什么模型将大多数测试图像预测为良性?为了进行更多研究,我使用一些用于训练的恶性图像对模型进行了测试,令人惊讶地发现,该模型预测的良性与测试时所用的恶性图像相同(用于训练模型)。我的问题是,当良性病例的训练样本中的图像数量少于恶性样本时,为什么模型将大多数测试图像预测为良性。

[ssh]

enabled  = true
port     = ssh
filter   = sshd
action   = curlAction
logpath  = /var/log/auth.log
maxretry = 6

0 个答案:

没有答案