这似乎是一个非常基本的问题,但我似乎无法在任何地方找到答案。我是SVM和ML的新手,我正在尝试做一些简单的练习,但结果似乎并不匹配。我正在使用e1071和R,并且经历了James,Witten,Hastie和Tibshirani的统计学习简介。
我的问题:为什么当我使用预测时,我似乎没有任何分类错误,但是调整功能的结果表明非零错误率? 我的代码(我正在看三个类):
set.seed(4)
dat <- data.frame(pop = rnorm(900, c(0,3,6), 1), strat = factor(rep(c(0,1,2), times=300)))
ind <- sample(1:900)
train <- dat[ind[1:600],]
test <- dat[ind[601:900],]
tune1 <- tune(svm, train.x=train[,1], train.y=train[,2], kernel="radial", ranges=list(cost=10^(-1:2), gamma=c(.5,1,2)))
svm.tuned <- svm(train[,2]~., data=train, kernel = "radial", cost=10, gamma=1) # I just entered the optimal cost and gamma values returned by tune
test.pred <- predict(svm.tuned, newdata=data.frame(pop=test[,1],strat=test[,2]))
因此,当我查看test.pred时,我发现每个值都与真正的类标签匹配。然而,当我调整模型时,它给出了大约0.06的错误率,无论哪种方式,测试错误率为0对于不可分离的数据似乎都是荒谬的(除非我错误地认为这不可分离?)。任何澄清都会非常有帮助。 非常感谢。
答案 0 :(得分:4)
tune
函数执行10次交叉验证。 随机将您的训练数据分成10个部分,然后迭代地进行:
“tune”函数的信息就是这个意思错误。选择最佳参数后,您将在整个集上训练模型,该集合比用于调整的集合大1/9。因此,在您的特定情况下(它不会经常发生) - 您将获得完美预测您的“测试”集的分类器,以及一些在调整时变小的小型分类器 - 犯了一个小错误 - 这就是为什么您将获得有关不同错误的信息。
<强>更新强>
看来,您实际上还在输入和标签上训练您的模型。看看您的
svm.tuned$SV
变量,它包含支持向量。
要训练svm,只需运行
svm(x,y,kernel="...",...)
例如
svm(train$pop, train$strat, kernel="linear" )
导致一些错误分类(正如预期的那样,因为线性内核无法完美地分离这些数据)。
或使用您的符号
svm.tuned <- svm(strat~., data=train, kernel = "radial", cost=10, gamma=1)
请注意,您应该使用框架列 strat 的名称,而不是索引。