防止节点在hadoop中运行reduce任务

时间:2016-12-17 08:11:11

标签: hadoop reduce phase

我在hadoop集群中有一个主节点和一个从节点。

Master也配置为通过启动nodemanager& datanode就在其中。

映射阶段完全适用于主节点和从节点。

我只有1个reduce阶段,但它只在slave节点中运行。

Slave节点的磁盘容量较小,因此当它失败时,reduce任务将在主节点中运行。

我不想在slave节点中启动reduce任务。

是否有任何配置可以防止在特定节点中调用reduce任务(在我的情况下是在slave节点中)?

在master中,所有hadoop服务都在运行。 在slave nodemanager& datanode正在运行。

0 个答案:

没有答案