Spark无法从主目录启动

时间:2016-12-10 18:16:51

标签: apache-spark

我在主目录上安装了spark并在bash文件中给出了路径。现在Spark在使用“Spark-shell”

调用时不会启动

bashrc中

export SCALA_HOME=/home/spark/scala-2.12.1
export PATH=$SCALA_HOME/bin:$PATH
export SPARK_HOME=/home/spark/spark/
export PATH=$SPARK_HOME/bin:$PATH
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH

错误

  

spark @ sE3:〜/ spark-2.0.2-bin-hadoop2.7 / bin $ ./spark-shell   ./spark-shell:line 57:/ home / spark / spark // bin / spark-submit:没有这样的文件或目录

1 个答案:

答案 0 :(得分:2)

请确认spark/spark/是否是正确的文件夹。因为readlink -f spark-submit 是2次

还要与下面交叉检查..

SPARK_HOME="$(cd "`dirname $(readlink -nf "$0")`"/.. ; pwd -P)"
如果你有符号链接,

会给你正确的火花,

您也可以使用

{{1}}