如何更改Spark应用程序的状态

时间:2017-07-04 14:59:56

标签: scala apache-spark apache-spark-standalone

所有我的“已完成的应用程序”都在Spark UI中处于完成状态。即使我的“已完成的驱动程序”处于失败的“状态”(因为在scala代码中,如果出现任何异常,我会执行System.exit(1)),其关联的“已完成的应用程序”处于已完成的“状态”。 / p>

我希望能够在scala代码中将我的应用程序状态更改为FAILED状态。注意我知道如何更改驱动程序的状态,我不知道如何更改其应用程序的状态。有什么建议如何实现这个?

我在独立模式下使用Spark-1.6.1和Spark-2.1.0。我使用scala。

0 个答案:

没有答案