有时Spark会丢失节点之间的连接

时间:2016-06-04 16:29:06

标签: apache-spark

我偶尔会遇到这个问题: 当我运行sbin/stop-all.sh时,它会说:no org.apache.spark.deploy.worker.Worker to stop但我确实需要关闭许多正在运行的工作人员。

1 个答案:

答案 0 :(得分:1)

我有时会遇到的一个问题可能与此有关:

如果您使用配置X运行start-all.sh然后将配置更改为Y(例如通过修改spark-en.sh,从属文件等),那么当您运行stop-all.sh时,它将尝试根据配置Y而不是配置X停止。