任何日志都没有错误,但我相信我的datanode找不到我的名字节点。
这是导致我得出这个结论的错误(根据我在网上找到的内容):
[INFO ]: org.apache.hadoop.ipc.Client - Retrying connect to server: /hadoop.server:9000. Already tried 4 time(s).
jps输出:
7554 Jps
7157 NameNode
7419 SecondaryNameNode
7251 DataNode
有人可以提供一些建议吗?
dfsadmin的结果
Configured Capacity: 13613391872 (12.68 GB)
Present Capacity: 9255071744 (8.62 GB)
DFS Remaining: 9254957056 (8.62 GB)
DFS Used: 114688 (112 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Live datanodes:
Name: 192.172.1.49:50010 (Hadoop)
Hostname: Hadoop
Decommission Status : Normal
Configured Capacity: 13613391872 (12.68 GB)
DFS Used: 114688 (112 KB)
Non DFS Used: 4358320128 (4.06 GB)
DFS Remaining: 9254957056 (8.62 GB)
DFS Used%: 0.00%
DFS Remaining%: 67.98%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Last contact: Fri Aug 08 17:25:57 SAST 2014
答案 0 :(得分:1)
为您的计算机提供主机名,并在/ etc / hosts文件中输入,如下所示
#hostname hdserver.example.com
#vim /etc/hosts
192.168.0.25 hdserver.example.com
192.168.0.30 hdclient.example.com
并保存。(使用正确的IP地址)
在客户端上还提供主机名hdclient.example.com并在/ etc / hosts中创建上述条目。这将有助于名称服务器找到具有主机名的计算机。
答案 1 :(得分:0)
删除tmp文件夹中的所有内容:rm -Rf path / of / tmp / directory
格式namenode :: bin / hadoop namenode -format
再次启动所有进程:bin / start-all.sh