复制文件时HDFS错误:只能复制到0个节点而不是1个节点

时间:2013-08-04 06:06:55

标签: hadoop hdfs

将文件从本地系统复制到HDFS时,我收到以下错误,我使用的是单节点

13/08/04 10:50:02 WARN hdfs.DFSClient:DataStreamer异常:java.io.IOException:文件/用户/ vishu / input只能复制到0个节点,而不是1个

我删除了dfs / Name和dfs / data目录并且格式化了Namenode仍然没有用。 我有足够的空间来复制数据。

有人可以帮忙解决这个问题吗?

此致 Vishwa

3 个答案:

答案 0 :(得分:6)

有时数据节点可能启动缓慢,这可能会导致上述问题..在dfs和mapred恶魔启动后保持一些等待时间。

bin / hadoop namenode -format

仓/ start-dfs.sh

等待约5分钟(数据节点将在时间上升)

仓/ start-mapred.sh

答案 1 :(得分:0)

检查是否所有后台程序都已启动。确保输入文件正确无误。

使用以下命令将文件从local复制到hdfs:

bin/hadoop fs -mkdir abc

bin/hadoop fs -copyFromLocal inputfile abc

答案 2 :(得分:0)

如果您的客户端编写文件位于群集之外,请确保客户端可以访问Datanode。

看看这个http://www.hadoopinrealworld.com/could-only-be-replicated-to-0-nodes/