SVM优于决策树和AdaBoost算法的优点

时间:2012-05-16 11:15:31

标签: machine-learning classification svm decision-tree adaboost

我正在研究数据的二进制分类,我想知道使用支持向量机优于决策树和自适应Boosting算法的优缺点。

1 个答案:

答案 0 :(得分:14)

您可能想要做的事情是使用weka,这是一个很好的软件包,您可以使用它来插入数据,然后尝试一堆不同的机器学习分类器,看看每个机器的工作原理是如何工作的组。对于进行机器学习的人来说,这是一条很好的路径。

对您的特定数据或您尝试解决的分类问题一无所知,我不能只是告诉您我对每种方法的随机知识。也就是说,这是一个脑转储并链接到一些有用的机器学习幻灯片。

Adaptive Boosting使用弱基分类器委员会对样本点的类分配进行投票。基本分类器可以是决策树桩,决策树,SVM等。它采用迭代方法。在每次迭代中 - 如果委员会对特定样本的类别分配达成一致和正确,那么它就会降低权重(在下一次迭代中不那么重要),如果委员会不一致,那么它就变成了加权(更重要的是在下一次迭代中对其进行分类)。 Adaboost因其具有良好的泛化性而闻名(不过度拟合)。

SVMs是有用的第一次尝试。此外,您可以将不同的内核与SVM一起使用,不仅可以获得线性决策边界,还可以获得更加有趣的内核。如果你对其进行L1正则化(松弛变量),那么你不仅可以防止过度拟合,而且还可以对不可分离的数据进行分类。

Decision trees很有用,因为几乎任何人都可以理解它们。它们易于使用。使用树也意味着您还可以了解特定功能对于制作该树的重要性。您可能想要检查的是添加树(例如MART)。