为什么Spark执行程序尝试连接到spark_master而不是SPARK_MASTER_IP?

时间:2016-05-31 21:52:27

标签: apache-spark apache-spark-standalone

使用Spark 1.6.1独立群集。系统重新启动后(每个工作程序只有少量配置更改为/ etc / hosts)Spark执行器突然开始抛出无法连接到spark_master的错误。

当用于启动主服务器的同一shell上的echo $SPARK_MASTER_IP时,它正确地将主机标识为master.cluster。当我在端口8080打开GUI时,它还将主服务器标识为Spark Master at spark://master.cluster:7077

我也在spark-env.sh设置SPARK_MASTER_IP。为什么我的遗嘱执行人试图连接到spark_master

0 个答案:

没有答案