构建apache spark时出错

时间:2015-08-07 16:04:55

标签: java git apache-spark sbt bigdata

当我构建Spark并在cmd(sbt clean assembly)中编写此命令时,它开始构建然后它给了我这个错误......那么这里有什么问题?

java.util.concurrent.ExecutionException: java.lang.OutOfMemoryError: Jav

空间

使用last获取完整日志。

1 个答案:

答案 0 :(得分:0)

错误是由于构建工具mvnsbt没有足够的内存来构建 spark项目

您可以查看SBT_OPTS或MAVEN_OPTS - 具体取决于您用于构建的那个。尝试其中之一:

09:19:17/web $echo $SBT_OPTS
-Xmx3012m -XX:MaxPermSize=512m -XX:ReservedCodeCacheSize=512m
11:36:50/web $echo $MAVEN_OPTS
-Xmx1280m -XX:MaxPermSize=384m

并且 sbt需要比maven更多的内存