将文件从本地Linux解压缩到HDFS时出错

时间:2017-04-12 13:35:49

标签: linux hdfs

此命令在Local linux

中正常工作
gzip -d omega_data_path_2016-08-10.csv.gz

我想将扩展名为.csv.gz的文件解压缩到HDFS位置。

我尝试了以下命令,我收到此错误

 [cloudera@client08 localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

put: `/user/cloudera/inputfiles/': No such file or directory

有人可以帮我解决这个问题吗?

1 个答案:

答案 0 :(得分:2)

要使gzip在标准输出上写入输出,请使用-c标志。

所以命令就是,

gzip -dc omega_data_path_2016-08-10.csv.gz | hdfs dfs -put - /user/cloudera/omega_data_path_2016-08-10.csv