标签: apache-spark
我偶尔会遇到这个问题: 当我运行sbin/stop-all.sh时,它会说:no org.apache.spark.deploy.worker.Worker to stop但我确实需要关闭许多正在运行的工作人员。
sbin/stop-all.sh
no org.apache.spark.deploy.worker.Worker to stop
答案 0 :(得分:1)
我有时会遇到的一个问题可能与此有关:
如果您使用配置X运行start-all.sh然后将配置更改为Y(例如通过修改spark-en.sh,从属文件等),那么当您运行stop-all.sh时,它将尝试根据配置Y而不是配置X停止。
start-all.sh
stop-all.sh