所以我知道,给定一个二元分类器,距离精度为0.5的距离越远,分类器就越好。 (即,一个错误的二元分类器可以转换为一个通过总是反转其决定来使一切正确的分类器。)
然而,我有一个内部特征选择过程,它为我提供了“好”的功能(我正在尝试递归特征消除,另一个基于Spearman的秩相关系数)。鉴于使用这些“好”特征的分类器的交叉验证准确度为0,我是否仍然可以得出结论,所选择的特征是有用的并且可以预测这个二元预测问题中的类?
答案 0 :(得分:0)
为了简化,我们假设您正在测试一些平衡集。一半的测试数据是正数,一半的测试数据是负数。
我会说正在发生一些奇怪的事情正在翻转你决定的标志。您正在评估的分类器非常有用,但您需要轻松做出决策。您应该检查您的代码,以确保您没有翻转培训数据的类别。有些库(例如LIBSVM)要求第一个训练示例来自正类。
总结一下:看起来你选择的功能很有用,但似乎你有一个错误就是翻过课。