如何停止运行Spark应用程序?

时间:2017-06-08 14:21:55

标签: java apache-spark

我在Java中写了一些Spark工作,然后用提交脚本提交了jar。

bin/spark-submit --class "com.company.spark.jobName.SparkMain" --master local[*] /tmp/spark-job-1.0.jar

将有一项服务并将在同一台服务器上运行。服务应该在收到停止命令时停止作业。

我有关于在职服务的这些信息:

  • SparkHome
  • AppName
  • AppResource
  • Master uri
  • 应用ID
  • 状态

有没有办法在java代码中停止运行spark job。

1 个答案:

答案 0 :(得分:2)

您是否已审核the REST server以及使用/submissions/kill/[submissionId]的能力?这似乎适合您的需要。