在Linux上运行Spark:$ JAVA_HOME未设置错误

时间:2016-08-03 15:23:14

标签: linux apache-spark java-home ubuntu-16.04

我正在尝试在spark-2.0.0-bin-hadoop2.7上配置Ubuntu 16.04.1 LTS。我已经设置了

export JAVA_HOME=/home/marc/jdk1.8.0_101
export SCALA_HOME=/home/marc/scala-2.11.8
export SPARK_HOME=/home/marc/spark-2.0.0-bin-hadoop2.7
export PATH=$PATH:$SCALA_HOME/bin:$JAVA_HOME/bin

.bashrc的末尾,也包含在spark / sbin文件夹的start-all.sh文件中

当我输入echo $JAVA_HOME时,它会为我提供正确的路径/home/marc/jdk1.8.0_101

但是当我打电话给sbin/start-all.sh

它给我以下错误

  

localhost:无法启动   org.apache.spark.deploy.worker.Worker:localhost:JAVA_HOME不是   设置

我试图遵循类似的主题,但我找不到问题的解决方案。任何帮助将不胜感激。

2 个答案:

答案 0 :(得分:0)

您需要在“ sbin”中修改名为“ spark-config.sh”的文件。 在此文件中添加您的JAVA_HOME,一切正常。

答案 1 :(得分:0)

请尝试在spark_env.sh文件中配置JAVA_HOME。