Hadoop将本地文件复制到HDFS?

时间:2015-04-06 23:06:19

标签: hadoop

我试图复制一个名为' afile'的本地文件。到HDFS。 所以我运行了以下命令:

' hadoop fs -copyFromLocal / home / neo / afile in' 或' hadoop fs -put / home / neo / afile'

然而,它说: ' File / home / neo / afile不存在'

然后我把文件放在' afile'进入hadoop下的目录。现在copyFromLocal成功了。但是,文件' in'因为我跑了,所以是空的 ' hadoop fs - ls',显示

' -rw-R - 的R - ' 1 neo supergroup 0 2015-04-06 17:45 / user / neo / in

我还尝试了' hadoop fs -cat,没有回复。

有人可以帮忙吗?

谢谢!

1 个答案:

答案 0 :(得分:2)

  1. test.txt

  2. 中名为/home/neo/的本地文件系统中创建新文件
  3. 将内容添加到test.txtecho "sample text for wordcount" > /home/neo/test.txt

  4. 使用以下命令在hdfs中创建一个新目录:hadoop fs -mkdir /user/neo/in/

  5. 将文件从本地目录复制到HDFS:hadoop fs -copyFromLocal /home/neo/test.txt /user/neo/in/test.txt