我们是否应该在所有节点中更改Hadoop集群的主站和从站配置文件?

时间:2014-03-31 16:55:14

标签: hadoop

我知道我们应该将主节点的IP地址放在conf / master文件中,并将所有从节点的IP地址放在conf / slaves文件中,每个单行一个。我的问题是我们应该只在主节点上这样做,还是我们也应该在所有从节点上更改这两个文件?此外,如果我想将主节点作为DataNode和TaskTracker,我是否应该将master的IP地址也放在slave文件中?

1 个答案:

答案 0 :(得分:2)

conf/slavesconf/master配置文件只应保存在不在从节点中的主节点上。conf/masters文件用于指定secondarynamenode主机。 start-all.shstart-mapred.sh and start-dfs.sh组成。如果要在节点上启动Job tracker,则应在该节点上执行start-mapred.sh脚本,并根据其conf / slaves文件,将在所述节点上启动所有Tasktracker服务。

同样start-dfs.sh脚本应在Namenode计算机中执行,具体取决于conf/mastersconf/slavessecondarynamenodeDatanodes的值分别在相应的节点上启动。