标签: scala hadoop apache-spark
运行Spark作业时,如何以编程方式(在Scala / Java中,可能在Spark的REST API中)获得每次状态转换所花费的时间(来自NEW - > ACCEPTED - > RUNNING)?
即。状态NEW期间的总时间,ACCEPTED期间的总时间,RUNNING期间的总时间