我在从本地复制文件到hdfs时遇到错误

时间:2014-08-20 06:00:55

标签: hadoop

将文件从本地文件系统复制到hdfs时,我收到错误 请你帮我解决这个问题,
我正在使用这个命令:

hadoopd fs -put text.txt file

5 个答案:

答案 0 :(得分:1)

putcopyFromLocal命令可帮助您将数据从本地系统复制到HDFS,前提是您有权这样做。

hadoop fs -put /path/to/textfile /path/to/hdfs
OR
hadoop dfs -put /path/to/textfile /path/to/hdfs

发现你的错误:

您输入上述命令为

hadoopd fs

答案 1 :(得分:0)

使用

hadoop dfs -put /text.txt /file

hadoop dfs -put /path/to/local/file /path/to/hdfs/file

答案 2 :(得分:0)

您可以使用以下命令

hadoop fs -copyFromLocal text.txt <path_to_hdfs_directory_where_you_want_to_keep_text.txt>

答案 3 :(得分:0)

在不知道您遇到的具体错误的情况下,很难回答。其他响应者发布了正确的语法。但是,尝试将文件复制到HDFS时,会发现权限问题并不罕见。

默认情况下,用户和组通常是“hdfs”和“supergroup”。您的用户帐户可能不属于“超级组”,并且将获得权限拒绝错误。尝试将命令运行为:

sudo -u hdfs hadoop fs -put /path/to/local/file /path/to/hdfs/file

sudo -u hdfs hadoop dfs -put /path/to/local/file /path/to/hdfs/file 

您可以通过更改HDFS上目标目录的所有权和权限来解决此问题。

答案 4 :(得分:0)

&#34; DataStreamer异常:org.apache.hadoop.ipc.RemoteException:java.io.IOException:文件/ user / hduser / myfile只能复制到0个节点,而不是org.apache.hadoop上的1个节点.hdfs.server.namenode.FSNamesystem.getAdditionalBlock&#34 ;.从这个I thinrk你的数据节点没有正常运行。在群集UI中检查一下。然后尝试

hadoop dfs -put / path / file / hdfs / file(hadoop YARN) hadoop fs -copyFromLocal / path / file / hdfs / file(hadoop1.x)