工作者火花webUI在Apache Spark中不起作用

时间:2017-11-17 14:11:46

标签: apache-spark pyspark apache-spark-sql apache-spark-mllib

我在3个ubuntu VM中安装了spark,1个是控制节点和2个数据节点。通过sbin / start-master.sh和sbin / start-slaves.sh启动所有节点后,主WebUI工作但我们点击工作节点WebUI未加载显示错误图片Master webUI Worker webUI

1 个答案:

答案 0 :(得分:0)

导致此问题的可能原因:

1.首先尝试使用spark master URL启动从属节点,如下所示。 ./sbin/start-slave.sh spark://:7077

  1. 如果上述修复程序无法解决问题,请尝试通过访问实际IP为192.168.x.x而非127.0.0.1

  2. 的工作程序UI来修复此问题
  3. 如果上述步骤无法解决问题,请按照以下说明操作http://chennaihug.org/knowledgebase/spark-master-and-slaves-multi-node-installation/