如何在Ubuntu中将文件上传到HDFS

时间:2015-02-04 07:59:11

标签: hadoop hdfs

我是hadoop的新手,在hadoop 1.2.1中使用单个节点ubuntu 14.04 LTS。我想上传一个文件到hadoop执行,但我不知道如何使用copyFromLocal命令.. plz告诉我如何上传文件 我的源文件路径"/home/saurabh/downloads/examples.jar" 我的hadoop在/usr/local/hadoop/

2 个答案:

答案 0 :(得分:2)

如果您的hadoop在PATH中,那么您可以这样做:

hadoop fs -put /home/saurabh/downloads/examples.jar /path/in/hdfs
  

如果您的hadoop不在PATH中,那么您应该导出HADOOP_HOME,或者您也可以cd到已安装hadoop的文件夹中,然后执行命令。

你也可以这样做:

hadoop fs -copyFromLocal /home/saurabh/downloads/examples.jar /path/in/hdfs

其中/path/in/hdfs是您要将文件复制到HDFS的位置,假设您要将文件复制到HDFS中的/user/saurabh,那么命令将是这样的:

hadoop fs -put /home/saurabh/downloads/examples.jar /user/saurabh

答案 1 :(得分:0)

 hadoop fs -put /path/to/file.ext  /usr/local/hadoop/

Put命令将文件从本地系统传输到hdfs。在下面的行中,file.ext将移动到/usr/local/hadoop文件夹,您可以通过运行hadoop fs -ls /usr/local/hadoop

来查看它