当我启动spark应用程序时,如何计算作业数量

时间:2017-03-31 02:53:48

标签: apache-spark jobs

我试图将作业计入第一次, 我试图从JobprogressListener获取它。但只有阶段和任务信息,而不是工作。我们知道Spark应用程序会“按原样”生成作业。

但是如果有一个组件或类记录了作业信息UP FRONT?

1 个答案:

答案 0 :(得分:0)

这是可能的,但我会推荐Spark RESTful API

步骤:

  1. applicationId属性
  2. 获取SparkContext.applicationId
  3. 查询http://context-url:port/applications/api/v1/[app-id]/jobs其中context-url是您的Spark驱动程序的地址,端口是使用Web UI的端口,它通常是4040。 Here is documentation
  4. 计算从RESTful API
  5. 响应返回的作业