我正在尝试构建一个包含四个节点的hadoop集群。
这四台机器来自我学校的实验室,我发现他们的 / usr / local 是从同一个公共磁盘安装的,这意味着他们的 / usr / local 是相同的。
问题是,我无法在slave上启动数据节点,因为hadoop文件总是相同的(比如 tmp / dfs / data )。
我打算在其他目录中配置和insatll hadoop,例如/ opt。
问题是我发现几乎所有的安装教程都要求我们在 / usr / local 中安装它,所以我想知道如果我在其他地方安装hadoop会有什么不良后果em> / opt ?
顺便说一句,我正在使用 Ubuntu 16.04
答案 0 :(得分:4)
只要HADOOP_HOME
指向你提取hadoop二进制文件的地方,那就没关系了。
例如,您还需要更新PATH
中的~/.bashrc
。
export HADOOP_HOME=/path/to/hadoop_x.yy
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
作为参考,我在/etc/hadoop
内有一些配置文件。
(注意:Apache Ambari使安装更容易)
答案 1 :(得分:0)
根本不需要在/usr/local
下安装hadoop。安装单节点hadoop集群时通常会使用该位置(尽管它不是必需的)。只要您在.bashrc
中指定了以下变量,任何位置都应该有效。
export HADOOP_HOME=<path-to-hadoop-install-dir>
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin