我一直在阅读很多关于支持向量机的内容,在我看过的所有书籍和在线文章中,SVM被归类为使用超平面的线性分类器。如果数据不能线性分离,那么数据可以映射到更高的维度以启用线性边界。
现在,我看到了华盛顿大学佩德罗·多明戈斯教授的一些文章和幻灯片,这是一位着名的机器学习专家。 他特意将SVM归类为基于实例的机器学习算法,类似于kNN。任何人都可以向我解释一下吗?
例如,在ACM通信中的article(2012年10月)中,当大多数机器学习人员将其置于具有逻辑回归的“超平面”之下时,他特别将SVM置于基于“实例”的表示之下。
此外,在他的lecture slides中,他给出了这样的推理:
有人可以解释这种推理吗?为什么SVM是基于实例的学习者(如KNN)而不是线性分类器(如逻辑回归)?
答案 0 :(得分:3)
您可以将SVM视为基于实例的学习算法,因为如果您无法明确地表示此空间中的特征空间并因此无法区分超平面,则需要记住支持向量。
如果使用RBF内核,您的决策边界将由每个支持向量周围的高斯凸起组成,这与使用使用alpha_i加权的支持向量的kNN分类器所获得的接近。
答案 1 :(得分:0)
我认为最好是直接问多明戈斯教授。
SVM确实使用了超平面 - 毕竟它们都是二进制的。然而,将SVM与LR的公式进行比较 - 与LR不同,SVM不是概率性的。 HTH,虽然有人可能会争辩说所有ML都是基于实例的。