我试图复制一个名为' afile'的本地文件。到HDFS。 所以我运行了以下命令:
' hadoop fs -copyFromLocal / home / neo / afile in' 或' hadoop fs -put / home / neo / afile'
然而,它说: ' File / home / neo / afile不存在'
然后我把文件放在' afile'进入hadoop下的目录。现在copyFromLocal成功了。但是,文件' in'因为我跑了,所以是空的 ' hadoop fs - ls',显示
' -rw-R - 的R - ' 1 neo supergroup 0 2015-04-06 17:45 / user / neo / in
我还尝试了' hadoop fs -cat,没有回复。
有人可以帮忙吗?
谢谢!
答案 0 :(得分:2)
在test.txt
/home/neo/
的本地文件系统中创建新文件
将内容添加到test.txt
:echo "sample text for wordcount" > /home/neo/test.txt
使用以下命令在hdfs中创建一个新目录:hadoop fs -mkdir /user/neo/in/
将文件从本地目录复制到HDFS:hadoop fs -copyFromLocal /home/neo/test.txt /user/neo/in/test.txt