使用联合身份在完整集群中安装apache Hadoop-2.0.0 alpha版本

时间:2012-07-19 06:00:03

标签: hadoop hadoop-streaming hadoop-plugins hadoopy

我已经成功安装了hadoop稳定版。但在安装hadoop -2.0.0版本时感到困惑。

我想在两个节点上安装hadoop-2.0.0-alpha,在两台机器上使用联合。 rsi-1,rsi-2是主机名。

应该是以下属性的值,以实现联合。这两台机器也用于数据节点。

fs.defaulFS dfs.federation.nameservices dfs.namenode.name.dir dfs.datanode.data.dir yarn.nodemanager.localizer.address yarn.resourcemanager.resource-tracker.address yarn.resourcemanager.scheduler.address yarn。 resourcemanager.address

还有一点,在hadoop的稳定版本中,我在安装目录的conf文件夹下有配置文件。

但是在2.0.0-aplha版本中,有etc / hadoop目录,它没有mapred-site.xml,hadoop-env.sh。我需要将共享文件夹下的conf文件夹复制到hadoop-home目录吗?或者我是否需要将这些文件从共享文件夹复制到etc / hadoop目录?

此致,拉什米

1 个答案:

答案 0 :(得分:0)

您可以在sbin文件夹中运行hadoop-setup-conf.sh。它会指示您逐步进行配置。 请记住,当它要求您输入目录路径时,您应该使用完整链接 例如,当它要求conf目录时,你应该输入/home/user/Documents/hadoop-2.0.0/etc/hadoop 完成后,记得检查etc / hadoop中的每个配置文件。 根据我的经验,我修改了hadoop-env.sh中的JAVA_HOME变量和core-site.xml中的一些属性mapred-site.xml。 此致