为什么SparkSubmit流程不能被"纱线应用程序杀死-kill appid"?

时间:2015-07-10 06:59:04

标签: apache-spark spark-streaming apache-spark-sql

我向纱线集群提交了一个火花流应用程序(hadoop 2.5.0),然后我执行了#34;纱线应用程序-kill appid"结束申请。我发现,所有CoarseGrainedExecutorBackends都退出了,但SparkSubmit进程仍在运行。

有没有人遇到过这个问题?如何优雅地杀死SparkSubmit?

0 个答案:

没有答案
相关问题