我可以强制YARN将主节点用于Application Master容器吗?

时间:2017-01-27 23:08:33

标签: hadoop apache-spark yarn elastic-map-reduce

我的大伙伴'主节点硬件在我的Hadoop / Spark运行期间几乎没有做任何事情,因为YARN在每个任务上使用随机从节点作为其AM。我更喜欢旧的Hadoop 1方式;当出现问题时,以这种方式避免了大量的日志追逐和ssh痛苦。

有可能吗?

1 个答案:

答案 0 :(得分:1)

可以使用Spark和YARN节点标签。

  1. 标记您的节点
  2. 使用spark.yarn.am.nodeLabelExpression 特性
  3. 好读: