标签: r bigdata r-caret
这似乎是一个明显的问题,但到目前为止我找不到任何东西。我想训练一个随机的森林,但我的数据集非常大。它只有一些功能,但大约有300万行。
如果我用较小的样本训练一切都很好但是如果我使用整个数据集我的系统内存不足(16GB)并冻结。有没有办法在插入符号中使用批次训练算法。喜欢sklearn中的偏爱。