单节点hadoop -how将本地文件系统文件复制到hadoop文件系统

时间:2013-10-27 05:55:32

标签: hadoop

我安装了hadoop。现在我尝试使用以下命令将一个本地文件系统复制到hadoop文件系统。

  
    

hadoop fs -copyFromLocal /mnt/PRO/wvdial.conf hdfs://virus/mydata/hdfs/datanode/wvdial.conf

  

但我收到了以下错误。

  
    

copyFromLocal:从病毒/ 127.0.0.1调用到病毒:8020在连接异常时失败:java.net.ConnectException:连接被拒绝;有关详细信息,请参阅:http://wiki.apache.org/hadoop/ConnectionRefused

  

我浏览了“http://wiki.apache.org/hadoop/ConnectionRefused”文档,发现“检查主机名没有映射到/ etc / hosts中的127.0.0.1或127.0.1.1(Ubuntu因此而臭名昭着)“。

是的我将主机“病毒”映射到/ etc / hosts上的127.0.0.1。我在单个节点上安装了hadoop。所以我必须将我的主机映射到127.0.0.1。现在我应该做什么改变我的配置,以便我可以将我的本地filesyatem文件复制到hdfs?

请从我的hadoop安装文档“http://omsopensource.blogspot.in/search/label/Hadoop”中找到hadoop配置。我正在使用Fedora 19。

0 个答案:

没有答案