在母版中,$HADOOP_HOME
为/home/a/hadoop
,奴隶的$HADOOP_HOME
为/home/b/hadoop
在master中,当我尝试使用start-all.sh
时,主名称节点成功启动,但无法启动slave的数据节点,并显示以下消息:
b@192.068.0.2: bash: line 0: cd: /home/b/hadoop/libexec/..: No such file or directory
b@192.068.0.2: bash: /home/b/hadoop/bin/hadoop-daemon.sh: No such file or directory
关于如何在主配置中为slave指定$HADOOP_HOME
的任何想法?
答案 0 :(得分:3)
我不知道从主服务器为各种从服务器配置不同主目录的方法,但是Hadoop FAQ说Hadoop框架不需要ssh,并且可以在每个服务器上手动启动DataNode和TaskTracker守护程序节点
我建议你编写自己的脚本来开始考虑节点特定环境的事情。但是,请确保在主服务器的从属文件中包含所有从服务器。似乎这是必要的,并且心跳不足以让主人添加奴隶。