如何杀死火花应用的火花作业?

时间:2016-12-27 19:11:15

标签: apache-spark spark-dataframe

我们可以杀死正在运行的火花应用程序的一个工作(耗时)并继续下一个工作吗?

让我们说,Spark应用程序中有50个作业,其中一个占用更多时间(可能需要更多内存而不是我们配置的内容),那么我们可以杀掉那份工作并继续下一份工作吗?

然后我们可以稍后使用更高内存配置运行该作业(触发该作业的操作)

如果这不可能那么如何处理这些条件?

1 个答案:

答案 0 :(得分:2)

你可以通过以下方式杀死正在运行的工作:

  • 打开Spark应用程序UI。
  • 转到 jobs 标签。
  • 在跑步工作中找到工作。
  • 点击kill链接并确认。