最近,当我使用插入符号程序包运行模型时,我发现训练对象的重采样所产生的灵敏度和特异性与每次折叠手动计算的灵敏度和特异性不同。 让我以GermanCredit数据为例。
library(caret)
data("GermanCredit")
form = as.formula('credit_risk~amount+savings+installment_rate+age+housing+number_credits')
train.control <- trainControl(method="cv",
number=5,
summaryFunction = twoClassSummary,
classProbs = TRUE,
savePredictions='all')
rf = train(form, data=GermanCredit, method = 'rf',
metric = 'ROC', trControl=train.control)
print(rf$resample)
我们得到了:
ROC Sens Spec Resample
0.6239881 0.9428571 0.13333333 Fold1
0.6603571 0.9714286 0.08333333 Fold2
0.6622619 0.9642857 0.06666667 Fold5
0.6502381 0.9928571 0.10000000 Fold4
0.7072619 0.9714286 0.16666667 Fold3
如您所见,对于折叠1,灵敏度和特异性分别为0.94和0.13。
现在,如果我们仅从Fold1中进行重新采样,并使用confusionMatrix来计算指标,则结果如下:
resamp.1 = rf$pred %>% filter(Resample=='Fold1')
cm=confusionMatrix(resamp.1$pred, resamp.1$obs)
print(cm)
Confusion Matrix and Statistics
Reference
Prediction good bad
good 366 135
bad 54 45
Accuracy : 0.685
95% CI : (0.6462, 0.722)
No Information Rate : 0.7
P-Value [Acc > NIR] : 0.8018
Kappa : 0.1393
Mcnemar's Test P-Value : 5.915e-09
Sensitivity : 0.8714
Specificity : 0.2500
Pos Pred Value : 0.7305
Neg Pred Value : 0.4545
Prevalence : 0.7000
Detection Rate : 0.6100
Detection Prevalence : 0.8350
Balanced Accuracy : 0.5607
'Positive' Class : good
您会注意到,敏感性和特异性分别为0.87和0.25。与直接从重采样输出的结果相比,数字完全不同!!其他褶皱也发生同样的事情。
我做错了吗?还是插入符号的操作有所不同?谢谢。
答案 0 :(得分:1)
请注意,data(GermanCredit)
的变量与您保存在form
的变量不同,它将有助于以后发布可重现示例的问题。此外,使用set.seed()
也将有所帮助。
不过,这里的问题是,您需要考虑mtry
,即随机森林模型中使用的“随机选择的预测变量”的数量。 {{3 }}。
我调整了GermanCredit
,以便所有人都可以按原样运行它:
library(caret)
data("GermanCredit")
form = as.formula('Class~Amount+SavingsAccountBonds.100.to.500+SavingsAccountBonds.lt.100+SavingsAccountBonds.500.to.1000+
SavingsAccountBonds.lt.100+SavingsAccountBonds.gt.1000+SavingsAccountBonds.Unknown+
InstallmentRatePercentage+Age+Housing.ForFree+Housing.Own+Housing.Rent+NumberExistingCredits')
train.control <- trainControl(method="cv",
number=5,
summaryFunction = twoClassSummary,
classProbs = TRUE,
savePredictions='all')
set.seed(100)
rf <- train(form, data=GermanCredit, method = 'rf',
metric = 'ROC', trControl=train.control)
如果我们检查rf
,我们可以看到模型中使用的mtry
的最终值为mtry = 2
。
> rf
Random Forest
1000 samples
12 predictor
2 classes: 'Bad', 'Good'
No pre-processing
Resampling: Cross-Validated (5 fold)
Summary of sample sizes: 800, 800, 800, 800, 800
Resampling results across tuning parameters:
mtry ROC Sens Spec
2 0.6465714 0.06333333 0.9842857
7 0.6413214 0.31333333 0.8571429
12 0.6358214 0.31666667 0.8385714
ROC was used to select the optimal model using the largest value.
The final value used for the model was mtry = 2.
因此,通过在mtry = 2
中过滤rf$pred
,您将获得预期的结果。
resamp.1 <- rf$pred %>% filter(Resample=='Fold1' & mtry == 2)
cm <- confusionMatrix(resamp.1$pred, resamp.1$obs)
print(cm)
Confusion Matrix and Statistics
Reference
Prediction Bad Good
Bad 7 5
Good 53 135
Accuracy : 0.71
95% CI : (0.6418, 0.7718)
No Information Rate : 0.7
P-Value [Acc > NIR] : 0.4123
Kappa : 0.1049
Mcnemar's Test P-Value : 6.769e-10
Sensitivity : 0.1167
Specificity : 0.9643
Pos Pred Value : 0.5833
Neg Pred Value : 0.7181
Prevalence : 0.3000
Detection Rate : 0.0350
Detection Prevalence : 0.0600
Balanced Accuracy : 0.5405
'Positive' Class : Bad
cm$byClass[1:2] == rf$resample[1,2:3]
Sens Spec
TRUE TRUE
编辑:
您还可以通过检查rf$resampledCM
来控制它,并查看不同mtry
和折痕的不同像元中的观察数。