将文件从本地文件系统复制到hdfs时,我收到错误
请你帮我解决这个问题,
我正在使用这个命令:
hadoopd fs -put text.txt file
答案 0 :(得分:1)
put
和copyFromLocal
命令可帮助您将数据从本地系统复制到HDFS,前提是您有权这样做。
hadoop fs -put /path/to/textfile /path/to/hdfs
OR
hadoop dfs -put /path/to/textfile /path/to/hdfs
发现你的错误:
您输入上述命令为
hadoopd fs
答案 1 :(得分:0)
使用
hadoop dfs -put /text.txt /file
hadoop dfs -put /path/to/local/file /path/to/hdfs/file
答案 2 :(得分:0)
您可以使用以下命令
hadoop fs -copyFromLocal text.txt <path_to_hdfs_directory_where_you_want_to_keep_text.txt>
答案 3 :(得分:0)
在不知道您遇到的具体错误的情况下,很难回答。其他响应者发布了正确的语法。但是,尝试将文件复制到HDFS时,会发现权限问题并不罕见。
默认情况下,用户和组通常是“hdfs”和“supergroup”。您的用户帐户可能不属于“超级组”,并且将获得权限拒绝错误。尝试将命令运行为:
sudo -u hdfs hadoop fs -put /path/to/local/file /path/to/hdfs/file
或
sudo -u hdfs hadoop dfs -put /path/to/local/file /path/to/hdfs/file
您可以通过更改HDFS上目标目录的所有权和权限来解决此问题。
答案 4 :(得分:0)
&#34; DataStreamer异常:org.apache.hadoop.ipc.RemoteException:java.io.IOException:文件/ user / hduser / myfile只能复制到0个节点,而不是org.apache.hadoop上的1个节点.hdfs.server.namenode.FSNamesystem.getAdditionalBlock&#34 ;.从这个I thinrk你的数据节点没有正常运行。在群集UI中检查一下。然后尝试
hadoop dfs -put / path / file / hdfs / file(hadoop YARN) hadoop fs -copyFromLocal / path / file / hdfs / file(hadoop1.x)