无法使用Hadoop-Fuse挂载HDFS

时间:2014-08-11 19:52:24

标签: ubuntu hadoop hdfs mount fuse

我在AWS EC2上运行了一个2节点Hadoop集群。我正在尝试将HDFS挂载到不同的EC2实例上。客户端正在运行Ubuntu 12.04.4 LTS,我已经安装了Hadoop-Fuse。

# apt-cache policy hadoop-0.20-fuse
hadoop-0.20-fuse:
Installed: 0.20.2+923.479-1~maverick-cdh3
Candidate: 0.20.2+923.479-1~maverick-cdh3
Version table:
*** 0.20.2+923.479-1~maverick-cdh3 0
   500 http://archive.cloudera.com/debian/ maverick-cdh3/contrib amd64 Packages
   100 /var/lib/dpkg/status

尝试安装后,我得到以下内容:

# hadoop-fuse-dfs dfs://10.0.0.160:9000 /mnt/tmp
INFO fuse_options.c:165 Adding FUSE arg /mnt/tmp

当我跑步" df"命令,我在那里看不到它并得到输入/输出错误

# df -h
df: `/mnt/tmp': Input/output error
Filesystem                Size  Used Avail Use% Mounted on
/dev/xvda1                 30G  3.5G   25G  13% /

此路径还显示以下内容:

# ls -alh /mnt
ls: cannot access /mnt/tmp: Input/output error
total 8.0K
drwxr-xr-x  3 root root 4.0K Aug 11 19:42 .
drwxr-xr-x 25 root root 4.0K Aug 11 17:35 ..
d?????????  ? ?    ?       ?            ? tmp

我可以安装任何方式吗?

2 个答案:

答案 0 :(得分:1)

不幸的是,hadoop-fuse-dfs没有很好的错误消息或文档。

为了让hadoop-fuse-dfs正常工作,您需要在hdfs-site.xml中使用Namenode的RPC端口dfs.namenode.servicerpc-address

# hadoop-fuse-dfs dfs://NAMENODE:RPCPORT /mnt/tmp

答案 1 :(得分:-1)

删除openjdk java版本 安装Oracle JRE