SVM分类是否始终产生独特的解决方案?

时间:2012-09-26 17:09:12

标签: machine-learning svm

可分离的线性分类器可以有多个边界来分类数据。这就是我们选择SVM来选择具有最大余量的边界(对看不见的数据的最小泛化误差)的原因。

SVM分类是否始终产生唯一解决方案(我们在所有可能的数据中都不会得到两个最大边界边界)?

答案取决于硬边距SVM和软边际SVM吗?

2 个答案:

答案 0 :(得分:9)

是的,标准SVM的软和硬配方都是凸优化问题,因此具有独特的全局最优。我想如果问题非常巨大,那么近似方法会非常简约,你可以使用它们而不是精确求解器,然后你的数值解法技术可能找不到全局最优,纯粹是因为它的权衡利益是减少搜索时间。

这些的典型方法是顺序最小化优化 - 保持一些变量固定并优化一小部分变量,然后反复使用不同的变量,直到无法改进目标函数。鉴于此,我发现任何人都不会以不会产生全局最优的方式解决这些问题是不可信的。

当然,您找到的全局最优可能实际上并不适合您的数据;这取决于您的模型,噪声类标签等代表数据生成过程的程度。所以解决这个并不能保证你找到了绝对正确的分类器或任何东西。

以下是我在粗略搜索中发现的一些讲义:( link

以下是关于凸性声明的更直接的链接:(link

答案 1 :(得分:3)

对于没有正则化的硬边缘分类器,可以将SVM问题转换为具有线性约束的强制二次规划问题(假设存在解/正余量)。具有线性约束的强制二次规划问题具有唯一的全局最小值,并且简单的优化方法(如梯度下降或感知器算法)保证收敛到全局最小值。参见例如

http://optimization-online.org/DB_FILE/2007/05/1662.pdf

对于软边缘SVM和具有正则化项的SVM,我认为存在唯一的全局最小值,并且通常的技术会收敛到全局最小值,但我不知道有任何证据可以涵盖所有可能性。