使用Spark 1.6.1独立群集。系统重新启动后(每个工作程序只有少量配置更改为/ etc / hosts)Spark执行器突然开始抛出无法连接到spark_master
的错误。
当用于启动主服务器的同一shell上的echo $SPARK_MASTER_IP
时,它正确地将主机标识为master.cluster
。当我在端口8080
打开GUI时,它还将主服务器标识为Spark Master at spark://master.cluster:7077
。
我也在spark-env.sh
设置SPARK_MASTER_IP
。为什么我的遗嘱执行人试图连接到spark_master
?