如何在Spark中读取工人任务中的累加器值?

时间:2018-09-20 17:08:44

标签: scala apache-spark bigdata accumulator shared-variable

根据spark中累加器的文档:

  

请注意,工作节点上的任务无法访问累加器的value()-从这些任务的角度来看,累加器是只写变量。这样可以有效地实现累加器,而不必传达每个更新。

累加器是工作节点的只写变量。

有什么方法可以读取工作节点中的累加器值并将其值用于某些业务逻辑?

0 个答案:

没有答案