我使用Ambari设置了一个集群(YARN),其中有3个虚拟机作为主机。
我在哪里可以找到HADOOP_CONF_DIR的值?
# Run on a YARN cluster
export HADOOP_CONF_DIR=XXX
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \ # can also be `yarn-client` for client mode
--executor-memory 20G \
--num-executors 50 \
/path/to/examples.jar \
1000
答案 0 :(得分:7)
也安装Hadoop。在我的情况下,我已将其安装在/ usr / local / hadoop
中设置Hadoop环境变量
export HADOOP_INSTALL=/usr/local/hadoop
然后设置conf目录
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
答案 1 :(得分:2)
来自/etc/spark/conf/spark-env.sh
:
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}