我在AWS EC2上运行了一个2节点Hadoop集群。我正在尝试将HDFS挂载到不同的EC2实例上。客户端正在运行Ubuntu 12.04.4 LTS,我已经安装了Hadoop-Fuse。
# apt-cache policy hadoop-0.20-fuse
hadoop-0.20-fuse:
Installed: 0.20.2+923.479-1~maverick-cdh3
Candidate: 0.20.2+923.479-1~maverick-cdh3
Version table:
*** 0.20.2+923.479-1~maverick-cdh3 0
500 http://archive.cloudera.com/debian/ maverick-cdh3/contrib amd64 Packages
100 /var/lib/dpkg/status
尝试安装后,我得到以下内容:
# hadoop-fuse-dfs dfs://10.0.0.160:9000 /mnt/tmp
INFO fuse_options.c:165 Adding FUSE arg /mnt/tmp
当我跑步" df"命令,我在那里看不到它并得到输入/输出错误
# df -h
df: `/mnt/tmp': Input/output error
Filesystem Size Used Avail Use% Mounted on
/dev/xvda1 30G 3.5G 25G 13% /
此路径还显示以下内容:
# ls -alh /mnt
ls: cannot access /mnt/tmp: Input/output error
total 8.0K
drwxr-xr-x 3 root root 4.0K Aug 11 19:42 .
drwxr-xr-x 25 root root 4.0K Aug 11 17:35 ..
d????????? ? ? ? ? ? tmp
我可以安装任何方式吗?
答案 0 :(得分:1)
不幸的是,hadoop-fuse-dfs
没有很好的错误消息或文档。
为了让hadoop-fuse-dfs
正常工作,您需要在hdfs-site.xml中使用Namenode的RPC端口dfs.namenode.servicerpc-address
。
# hadoop-fuse-dfs dfs://NAMENODE:RPCPORT /mnt/tmp
答案 1 :(得分:-1)
删除openjdk java版本 安装Oracle JRE