我知道在ROC
和tpr
之间绘制了fpr
,但我很难确定哪些参数应该变化以获得不同的tpr
/ {{1对。
答案 0 :(得分:1)
我在类似的问题上写了answer。
基本上,您可以增加某些类别的权重和/或对其他类别进行下采样和/或更改投票聚合规则。
[[2015年7月1日2015年12月1日编辑]] @"两个班级非常均衡 - Suryavansh"
在这种情况下,您的数据是平衡的,您应该主要使用选项3(更改聚合规则)。在randomForest中,可以在训练时或在预测时使用cutoff参数访问它。在其他设置中,您可能需要自己从所有树中提取所有经过交叉验证的投票,应用一系列规则并计算得到的fpr和fnr。
library(randomForest)
library(AUC)
#some balanced data generator
make.data = function(obs=5000,vars=6,noise.factor = .4) {
X = data.frame(replicate(vars,rnorm(obs)))
yValue = with(X,sin(X1*pi)+sin(X2*pi*2)^3+rnorm(obs)*noise.factor)
yClass = (yValue<median(yValue))*1
yClass = factor(yClass,labels=c("red","green"))
print(table(yClass)) #five classes, first class has 1% prevalence only
Data=data.frame(X=X,y=yClass)
}
#plot true class separation
Data = make.data()
par(mfrow=c(1,1))
plot(Data[,1:2],main="separation problem: predict red/green class",
col = c("#FF000040","#00FF0040")[as.numeric(Data$y)])
#train default RF
rf1 = randomForest(y~.,Data)
#you can choose a given threshold from this ROC plot
plot(roc(rf1$votes[,1],rf1$y),main="chose a threshold from")
#create at testData set from same generator
testData = make.data()
#predict with various cutoff's
predTable = data.frame(
trueTest = testData$y,
majorityVote = predict(rf1,testData),
#~3 times increase false red
Pred.alot.Red = factor(predict(rf1,testData,cutoff=c(.3,.1))),
#~3 times increase false green
Pred.afew.Red = factor(predict(rf1,testData,cutoff=c(.1,.3)))
)
#see confusion tables
table(predTable[,c(1,2)])/5000
majorityVote
trueTest red green
red 0.4238 0.0762
green 0.0818 0.4182
table(predTable[,c(1,3)])/5000
Pred.alot.Red
trueTest red green
red 0.2902 0.2098
green 0.0158 0.4842
table(predTable[,c(1,4)])/5000
Pred.afew.Red
trueTest red green
red 0.4848 0.0152
green 0.2088 0.2912