Spark on Yarn客户端模式 - 忽略HADOOP_CONF_DIR

时间:2017-07-25 07:51:53

标签: apache-spark

我在Hadoop 2.8.1上安装了Spark 2.1.1。

我已经在spark-env.sh上指定了HADOOP_CONF_DIR。我在spark-defaults.sh上也有以下设置

spark.yarn.access.namenodes   hdfs://hadoop-node0:55555/

但是当我使用以下命令执行spark-shell时,

sparkuser@hadoop-node0:/home/apps/spark-2.1.1-bin-hadoop2.7$ bin/spark-shell --master yarn --deploy-mode client

HADOOP_CONF_DIR设置似乎被忽略,因此它不会检索core-site.xml和hdfs-site.xml上的设置,因为我总是收到以下错误:

17/07/25 10:15:24 ERROR spark.SparkContext: Error initializing SparkContext.
java.lang.IllegalArgumentException: java.net.UnknownHostException: spark

当我添加" spark"在我的/ etc / hosts上作为localhost的替代方案,我总是收到以下错误:

17/07/25 10:17:15 ERROR spark.SparkContext: Error initializing SparkContext.
java.net.ConnectException: Call From XXXX/XXX.XXX.XXX.XXX to spark:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

所以它总是试图达到127.0.0.1:8020,这当然不起作用,因为没有人在听它。

您认为我错过了在配置文件中指定的内容?

提前多多感谢。

亲切的问候,

安托

0 个答案:

没有答案