将文件复制到hadoop时没有这样的文件或目录

时间:2015-05-09 11:27:32

标签: hadoop apache-pig

当我使用

时,我是hadoop的初学者
Hadoop fs -ls /          

并且

Hadoop fs - mkdir /pathname

每件事都没问题,但我想在hadoop中使用我的csv文件,我的文件在c盘中,我使用-putwget以及copyfromlocal这样的命令:< / p>

Hadoop fs -put c:/ path / myhadoopdir
Hadoop fs copyFromLoacl c:/...
Wget ftp://c:/...

但是在上面的两个中没有这样的文件或目录/ myfilepathinc中的错误: 而对于第三个 无法解析主机地址“c” 谢谢你的帮助

2 个答案:

答案 0 :(得分:0)

看看你的命令,这个问题似乎有几个原因。

 Hadoop fs -put c:/ path / myhadoopdir
 Hadoop fs copyFromLoacl c:/...
  1. 正确使用hadoop fs -copyFromLocal。
  2. 检查您的本地文件权限。您必须提供对该文件的完全访问权限。
  3. 您必须在本地和hdfs中提供绝对路径位置。
  4. 希望它对你有用。

答案 1 :(得分:0)

salmanbw的回答是准确的。更清楚。

假设您的文件是“c:\ testfile.txt”,请使用以下命令。 并确保您对HDFS中的目录具有写入权限。

hadoop fs -copyFromLocal c:\testfile.txt /HDFSdir/testfile.txt