如何获得Spark Job的工作完成百分比?

时间:2017-11-13 13:16:01

标签: rest apache-spark jobs spark-jobserver

我一直在寻找一种方法来获得相应职位ID的工作完成百分比。

现在,Spark JobServer UI显示正在运行的作业的相应状态:

{
  "duration": "Job not done yet",
  "classPath": "jobserver.spark.sql.SparkJobServerClient",
  "startTime": "2017-11-13T11:22:46.030+05:30",
  "context": corresponding_context_name,
  "status": "RUNNING",
  "jobId": "ef16374c-f370-442c-9cea-25aa1b427a0a"
}

之后,完成状态将如下:

{
  "duration": "5.909 secs",
  "classPath": "jobserver.spark.sql.SparkJobServerClient",
  "startTime": "2017-11-13T11:22:46.030+05:30",
  "context": corresponding_context_name,
  "result": "2017-10-24-00-00-00,3120,9958,25.74,23.61,2.7,7195,4.31,4.54,8.84,13.41,9.96,8.11,6.77,5.59,4.68,3.96,3.39,2.94,15.5,4.94,2.61,0.45,1,4.6146717E7\n",
  "status": "FINISHED",
  "jobId": "ef16374c-f370-442c-9cea-25aa1b427a0a"
  }

我想要的是在处理阶段获得工作状态的百分比,以便它可以在前端显示。

如果有人能帮助我,那将非常有帮助。

P.S。首先发布此帖,发布问题的格式错误令人遗憾。感谢。

1 个答案:

答案 0 :(得分:0)

在spark jobserver中,此功能不可用。