randomForest模型的大小取决于训练集的大小:一种避免的方法?

时间:2019-05-21 09:12:52

标签: r machine-learning memory-management classification random-forest

我正在训练randomForest模型,目标是将其保存以进行预测(它将在外部环境中下载和使用)。我希望这个模型尽可能小。

我已阅读到有很多optionspackages可以减少模型的内存大小。

但是,我不明白为什么训练集的大小与模型的大小有关?毕竟,一旦森林的系数存在,为什么需要保留原始数据集?

df <- iris
model <- randomForest::randomForest(Species ~ ., data = df, 
                 localImp = FALSE,
                 importance = FALSE,
                 keep.forest = TRUE,
                 keep.inbag = FALSE,
                 proximity=FALSE,
                 ntree = 25)
object.size(model)/1000
#> 73.2 bytes

df <- df[sample(nrow(df), 50), ]
model <- randomForest::randomForest(Species ~ ., data = df, 
                 localImp = FALSE,
                 importance = FALSE,
                 keep.forest = TRUE,
                 keep.inbag = FALSE,
                 proximity=FALSE,
                 ntree = 25)
object.size(model)/1000
#> 43 bytes

reprex package(v0.2.1)于2019-05-21创建

我已经尝试了上述技巧来减小尺寸,但是与训练组尺寸的作用相比,它们的作用微不足道。有没有办法删除此信息?

1 个答案:

答案 0 :(得分:1)

我认为您可以在适合后删除模型的某些部分:

object.size(model)/1000
# 70.4 bytes

model$predicted <- NULL # remove predicted
model$y <- NULL # remove y
#.. possibly other parts aren't needed
object.size(model)/1000
# 48.3 bytes

我与predict(model, df)进行了检查,以查看它是否仍然可以使用。

使用names(model)检查model中的元素。

$votes似乎很大,而且您不需要它,在这里我安全删除了更多物品:

model$predicted <- NULL
model$y <- NULL
model$err.rate <- NULL
model$test <- NULL
model$proximity <- NULL
model$confusion <- NULL
model$localImportance <- NULL
model$importanceSD <- NULL
model$inbag <- NULL
model$votes <- NULL
model$oob.times <- NULL


object.size(model)/1000
# 32.3 bytes

示例:

df <- iris
model <- randomForest::randomForest(Species ~ ., data = df, 
                 localImp = FALSE,
                 importance = FALSE,
                 keep.forest = TRUE,
                 keep.inbag = FALSE,
                 proximity=FALSE,
                 ntree = 25)