Hadoop文件系统副本 - namenode与datanode

时间:2015-06-18 19:52:11

标签: apache hadoop filesystems hdfs

我需要将文件系统中的文件复制到HDFS中,下面是我在hdfs-site.xml中的配置。我应该如何使用“hadooop fs”命令将/home/text.txt中的文件复制到HDFS中?我应该将它复制到namenode或datanode吗?

 <configuration>
<property>
   <name>dfs.replication</name>
   <value>1</value>
</property>
 <property>
   <name>dfs.namenode.name.dir</name>
   <value>file:/usr/local/hadoop_store/hdfs/namenode</value>
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>
   <value>file:/usr/local/hadoop_store/hdfs/datanode</value>
 </property>
</configuration>

1 个答案:

答案 0 :(得分:1)

你使用什么hadoop版本?用于存储元数据的目录dfs.namenode.name.dir和用于存储实际数据的目录dfs.datanode.data.dir(例如用户数据)。

如果要将文件上传到HDFS,则无需关心将其复制到namenode或datanode中。因为HDFS会这样做。最后,您的数据将存储在DataNode上。

您可以使用commond bin/hadoop fs -mkdir /inputbin/hadoop fs copyFromLocal /home/text.txt /input。第一个是创建目录&#34;输入&#34;在HDFS上,第二个是将文件复制到HDFS。