主节点如何在hadoop集群中启动所有进程?

时间:2017-03-18 10:59:05

标签: hadoop virtualbox hadoop2 resourcemanager namenode

我已经使用普通的香草Hadoop建立了一个由5个虚拟机组成的Hadoop集群。群集详细信息如下:

192.168.1.100 - 配置为运行NameNode和SNN守护进程
192.168.1.101 - 配置为运行ResourceManager守护程序 192.168.1.102 - 配置为运行DataNode和NodeManager守护进程 192.168.1.103 - 配置为运行DataNode和NodeManager守护进程 192.168.1.104 - 配置为运行DataNode和NodeManager守护进程。

我在每个虚拟服务器中保留了主文件和从属文件。

主人:

192.168.1.100
192.168.1.101

奴隶档案:

192.168.1.102
192.168.1.103
192.168.1.104

现在当我从<div id="slide"></div> <center><div id="titles"> <center><p id="title">DJ VORT-X</p></center><br><br><br><br> <p id="sub">All-round music for your event</p> <br><br><br><br> <center><div class="button"><center>CONTACT ME</center></div></center> <br><br><br><br><br><br><br><br> <div class="arrowbox"><img class="arrowdown" src="arrowdown.png"></div> </div> </center>机器运行start-all.sh命令时,它是如何启动所有守护进程的?我无法理解它?没有安装适配器(或者我不知道),所有机器中都有简单的hadoop jar,所以NameNode机器如何能够启动所有机器(虚拟服务器)中的所有守护进程。

任何人都可以帮我理解这个吗?

1 个答案:

答案 0 :(得分:1)

namenode通过SSH连接到从属服务器并运行从属服务。 这就是为什么你需要在~/.ssh/authorized_keys的奴隶上使用公共ssh-key,以便为运行Hadoop名字节点的用户提供私有对应物。