我的Hadoop版本是2.5.2。
我想用保险丝安装Hadoop。我尝试了两种方法,但都失败了。一种方法是:
HADOOP_HOME: ant compile-c++-libhdfs -Dlibhdfs=1`.
但它失败了,因为它无法找到build.xml
。另一种方法是hadoop-hdfs/target/native/main/native/fuse-dfs
,我执行make
但仍然没有fuse-dfs。
我应该如何构建fuse-dfs,以便通过保险丝安装HDFS?
答案 0 :(得分:0)
我假设你已经安装了Java和Maven,并且可以构建其他Hadoop组件。之后你运行:
$ mvn package -Pnative -Drequire.fuse=true -DskipTests -Dmaven.javadoc.skip=true
此指令位于fuse-dfs的后续自述文件中(hadoop-hdfs-project / hadoop-hdfs / src / main / native / fuse-dfs / doc / README)
BUILDING
fuse-dfs可执行文件可以通过使用Maven将
require.fuse
选项设置为true来构建。例如: 在HADOOP_PREFIX中:mvn package -Pnative -Drequire.fuse=true -DskipTests -Dmaven.javadoc.skip=true
可执行文件
fuse_dfs
将位于HADOOP_PREFIX / hadoop-hdfs-project / hadoop-hdfs-native-client / target / main / native / fuse-dfs /
但2.5.2来源是指旧指令。
我的构建环境是CentOS 6服务器。我在本地库:
下添加了https://wiki.apache.org/hadoop/HowToContribute中提到的其他包对于RHEL(以及CentOS):
yum -y install lzo-devel zlib-devel gcc gcc-c ++ autoconf automake libtool openssl-devel fuse-devel cmake
参考文献: