Spark安装内存问题

时间:2014-11-26 15:05:25

标签: sbt apache-spark

这个问题已经被问到,但我仍然面临着问题。

hduser@sanjeebpanda-VirtualBox:/usr/local/spark$ sbt/sbt assembly

使用/usr/lib/jvm/java-7-openjdk-i386作为默认JAVA_HOME。

请注意,如果已设置,则会被-java-home覆盖。

Error occurred during initialization of VM
Could not reserve enough space for object heap
Error: Could not create the Java Virtual Machine.
Error: A fatal exception has occurred. Program will exit.

此致 Sanjeeb

2 个答案:

答案 0 :(得分:0)

错误消息似乎是说机器上没有足够的内存来分配必要的Java堆空间。

我会检查〜/ .sbtconfig以查看Xmx和Xms值的设置,并尝试降低这些值。虽然这些是默认值,但可能会引发其他问题。

最佳解决方案是使用另一台具有更大内存的计算机。

干杯

答案 1 :(得分:0)

好的,我在安装Spark时遇到了同样的问题。设置_JAVA_OPTIONS后,它可以正常工作。

以下是我所使用的。根据您的机器更改内存大小:

export _JAVA_OPTIONS='-Xmx128M -Xmx256M'