我今天遇到了这个问题,我正在使用一种对所有方法对Iris数据集进行基本的逻辑回归训练,我发现我的模型精度为66%,因为Iris-versicolor类不是线性可分离的。这是屏幕截图(一个对所有,一个类是肯定的,其他所有都是否定的)
(请注意,这些功能未标准化)
对数损失类似于-: 在某些迭代中为3.39、8.42、0.86、1.07、8.52。
(请注意,这些功能现在已经标准化)
对数损失降至0.63 0.47、0.46、0.45、0.45。 而且我的准确度是96%-100%(在超参数优化方面)
如果有人可以向我说明一下,以便我能理解这里发生的情况,那么归一化功能对我的分类器的影响要大于非归一化功能。这两类仍然不是线性可分离的,对吧?我想理解它就像在51区看到外星人一样糟糕。谢谢
编辑:以下是指向Google colab笔记本的链接,以使事情更清晰 https://colab.research.google.com/drive/16AaPWCPeV-9i4aZV3XddDaBh7VlUCQmO