我一直在寻找一种方法来获得相应职位ID的工作完成百分比。
现在,Spark JobServer UI显示正在运行的作业的相应状态:
{
"duration": "Job not done yet",
"classPath": "jobserver.spark.sql.SparkJobServerClient",
"startTime": "2017-11-13T11:22:46.030+05:30",
"context": corresponding_context_name,
"status": "RUNNING",
"jobId": "ef16374c-f370-442c-9cea-25aa1b427a0a"
}
之后,完成状态将如下:
{
"duration": "5.909 secs",
"classPath": "jobserver.spark.sql.SparkJobServerClient",
"startTime": "2017-11-13T11:22:46.030+05:30",
"context": corresponding_context_name,
"result": "2017-10-24-00-00-00,3120,9958,25.74,23.61,2.7,7195,4.31,4.54,8.84,13.41,9.96,8.11,6.77,5.59,4.68,3.96,3.39,2.94,15.5,4.94,2.61,0.45,1,4.6146717E7\n",
"status": "FINISHED",
"jobId": "ef16374c-f370-442c-9cea-25aa1b427a0a"
}
我想要的是在处理阶段获得工作状态的百分比,以便它可以在前端显示。
如果有人能帮助我,那将非常有帮助。
P.S。首先发布此帖,发布问题的格式错误令人遗憾。感谢。
答案 0 :(得分:0)
在spark jobserver中,此功能不可用。