我在主目录上安装了spark并在bash文件中给出了路径。现在Spark在使用“Spark-shell”
调用时不会启动bashrc中:
export SCALA_HOME=/home/spark/scala-2.12.1
export PATH=$SCALA_HOME/bin:$PATH
export SPARK_HOME=/home/spark/spark/
export PATH=$SPARK_HOME/bin:$PATH
export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.1-src.zip:$PYTHONPATH
错误:
spark @ sE3:〜/ spark-2.0.2-bin-hadoop2.7 / bin $ ./spark-shell ./spark-shell:line 57:/ home / spark / spark // bin / spark-submit:没有这样的文件或目录
答案 0 :(得分:2)
请确认spark/spark/
是否是正确的文件夹。因为readlink -f spark-submit
是2次
还要与下面交叉检查..
SPARK_HOME="$(cd "`dirname $(readlink -nf "$0")`"/.. ; pwd -P)"
如果你有符号链接,会给你正确的火花,
您也可以使用
{{1}}