所以,我正在配置一个带有Hadoop 2.5.2的10节点集群,到目前为止它正在运行,但我唯一的问题是,当尝试与节点通信时,Hadoop会根据其IP来猜测它们的主机名而不是使用我配置的那些。
让我更具体一点:这是在开始工作时发生的,但是当我启动纱线(例如)时,从属节点名称被正确使用。 Hadoop用于自动生成节点名称的方案是IP-XX-XX-XX-XX,因此对于IP为179.30.0.1的节点,其名称为IP-179-30-0-1。
这迫使我编辑每个节点上的每个/ etc / hosts文件,这样他们的127.0.0.1 ip就像Hadoop一样命名。
我可以让Hadoop使用我拥有这些主机的名字吗?或者我是否强制要正常执行此额外配置步骤?