在spark中执行sbt包时出现Java内存问题

时间:2014-12-06 16:43:04

标签: java sbt apache-spark

请您为我提出以下问题的解决方案。

hduser @hduser-VirtualBox:/ usr / local / spark1 / project $ sbt package OpenJDK 64位服务器VM警告:INFO:os :: commit_memory(0x00000000a8000000,1073741824,0)失败; error ='无法分配内存'(errno = 12)

Java Runtime Environment没有足够的内存继续。

本机内存分配(malloc)无法为提交保留内存分配1073741824个字节。

包含更多信息的错误报告文件保存为:

/usr/local/spark-1.1.0-bin-hadoop1/project/hs_err_pid26824.log

hduser @hduser-VirtualBox:/ usr / local / spark1 / project $ java -version java版“1.7.0_65” OpenJDK运行时环境(IcedTea 2.5.3)(7u71-2.5.3-0ubuntu0.14.04.1) OpenJDK 64位服务器VM(内置24.65-b04,混合模式)

1 个答案:

答案 0 :(得分:1)

看起来你正试图以相当大的Java堆大小(1GB)运行。我开始减少它。如果你真的需要这么多,你可能会遇到麻烦:看起来好像你的机器没有足够的RAM来为你分配它。