标签: java apache-spark
我在Java中写了一些Spark工作,然后用提交脚本提交了jar。
bin/spark-submit --class "com.company.spark.jobName.SparkMain" --master local[*] /tmp/spark-job-1.0.jar
将有一项服务并将在同一台服务器上运行。服务应该在收到停止命令时停止作业。
我有关于在职服务的这些信息:
有没有办法在java代码中停止运行spark job。
答案 0 :(得分:2)
您是否已审核the REST server以及使用/submissions/kill/[submissionId]的能力?这似乎适合您的需要。
/submissions/kill/[submissionId]