运行spark时堆错误?

时间:2015-12-08 07:34:33

标签: java apache-spark bigdata

我试图在我的Ubuntu终端上运行spark但是我收到以下错误

$Using /usr/lib/jvm/java-7-oracle as default JAVA_HOME.
$Note, this will be overridden by -java-home if it is set.
$Picked up _JAVA_OPTIONS: -Xmx10M -Xms2048M
$Error occurred during initialization of VM
$Incompatible minimum and maximum heap sizes specified

请帮助,提前致谢。

2 个答案:

答案 0 :(得分:3)

-Xmx10M -Xms2048M

第一个参数是最大堆大小,第二个参数是您要设置的开始。 Max应该大于start。

答案 1 :(得分:0)

-Xms-Xmx参数分别定义最小和最大堆大小。您为-Xmx设置了较小的值,为-Xms设置了较大的值,即INVALID组合。

请查看oracle的这篇vmoptions文章,以便更好地理解。