我正在学习不同的分类技术,比如可能的分类器等,并且问题为什么我们不能将二元分类器实现为所有属性的回归函数,并根据函数的输出进行分类,比如说如果输出小于某个值,则它属于A类,否则属于B类。与概率方法相比,这种方法有任何限制吗?
答案 0 :(得分:1)
您可以这样做,并且通常在实践中完成,例如在Logistic Regression中。它甚至不限于二进制类。与概率方法相比,没有固有的限制,但你应该记住,两者都是根本不同的方法,很难比较。
答案 1 :(得分:0)
我认为你在分类方面有一些误解。无论您使用何种分类器(svm或逻辑回归),您始终可以将输出模型视为 f(x)> b ===>正 f(x)否定
这适用于概率模型和非概率模型。事实上,这与风险最小化有关,这自然会导致截止分支。
答案 2 :(得分:0)
是的,这是可能的。例如,perceptron就是这样做的。
但是,它的用途仅限于linearly separable problems。但是可以将它们中的多个组合在一起来解决一般neural networks中的任意复杂问题。
另一种机器学习技术SVM以类似的方式工作。它首先将输入数据转换为某个高维空间,然后通过线性函数将其分离。