可以使用以下命令
复制从本地到HDFS的名为records.txt的文件hadoop dfs -put /home/cloudera/localfiles/records.txt /user/cloudera/inputfiles
通过使用上述命令,文件records.txt将被复制到具有相同名称的HDFS中。
但我想将两个文件(records1.txt和demo.txt)存储到HDFS
中我知道我们可以使用下面的内容
hadoop dfs -put /home/cloudera/localfiles/records* /user/cloudera/inputfiles
但是否有任何命令可以帮助我们存储一个或两个具有不同名称的文件以便复制到hdfs中?
答案 0 :(得分:2)
使用put命令参数,您可以提供一个或多个源文件here。所以尝试类似的事情:
hadoop dfs -put /home/cloudera/localfiles/records* /home/cloudera/localfiles/demo* /user/cloudera/inputfiles
从hadoop shell命令用法:
put
Usage: hadoop fs -put <localsrc> ... <dst>
Copy single src, or multiple srcs from local file system to the destination filesystem. Also reads input from stdin and writes to destination filesystem.
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile
Reads the input from stdin.
Exit Code:
Returns 0 on success and -1 on error.