我正在尝试使用纱线运行Spark,我遇到了这个错误:
线程中的异常" main" java.lang.Exception:当使用master' yarn'必须在环境中设置HADOOP_CONF_DIR或YARN_CONF_DIR。
我不确定"环境"是(具体文件是什么?)。我尝试使用:
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
在bash_profile中,但这似乎没有帮助。
谢谢!
答案 0 :(得分:6)
使用Yarn运行spark时,您需要在spark-env.sh
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
注意:在您的环境中检查$ HADOOP_HOME / etc / hadoop是否正确。而spark-env.sh也包含HADOOP_HOME的导出。
答案 1 :(得分:-1)
cd $SPARK_HOME/bin
sudo nano load-spark-env.sh
导出SPARK_LOCAL_IP =“ 127.0.0.1”
export HADOOP_CONF_DIR =“ $ HADOOP_HOME / etc / hadoop”
导出YARN_CONF_DIR =“ $ HADOOP_HOME / etc / hadoop”