在运行时在Spark中获取NodeID

时间:2018-05-29 10:51:08

标签: apache-spark yarn hadoop2

有没有在运行时在集群中获取节点ID ,以便我们可以使用该节点ID与任何列连接并处理它?<​​/ p>

我正在尝试创建由<timeStamp> + <Node ID>+ <any col data>.

组成的唯一标识符

0 个答案:

没有答案