如何计算处于“已接受”状态的Spark作业总数?

时间:2019-06-13 14:42:14

标签: apache-spark

我正在尝试使用Java代码查找处于“接受”状态的Spark作业数量。这里的需要是,如果“接受的职位”总数为10,那么我将不会提交任何新的Spark职位。

我可以在YARN中看到各种作业状态,但不太确定如何在Java中实现。

在这方面的任何指导都是很有帮助的。

0 个答案:

没有答案