请求的数组大小超过MLLib随机森林中的VM限制

时间:2015-02-23 18:49:57

标签: java scala apache-spark out-of-memory apache-spark-mllib

我使用MLLib训练随机森林。它可以很好地工作到15深度,但是如果我使用深度20,我会得到

  

java.lang.OutOfMemoryError:请求的数组大小超过VM限制

在驱动程序上,来自DecisionTree.scala中的collectAsMap操作,围绕642行。直到训练的一小时后才会发生。我在36个从站上使用50棵树,maxMemoryInMB = 250,但即使我使用240G的驱动程序内存仍然会出错。

之前是否有人在此上下文中看到此错误,并可以建议可能触发它的内容?

最好,卢克

0 个答案:

没有答案