此命令在Local linux
中正常工作gzip -d omega_data_path_2016-08-10.csv.gz
我想将扩展名为.csv.gz的文件解压缩到HDFS位置。
我尝试了以下命令,我收到此错误
[cloudera@client08 localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
put: `/user/cloudera/inputfiles/': No such file or directory
有人可以帮我解决这个问题吗?
答案 0 :(得分:2)
要使gzip
在标准输出上写入输出,请使用-c
标志。
所以命令就是,
gzip -dc omega_data_path_2016-08-10.csv.gz | hdfs dfs -put - /user/cloudera/omega_data_path_2016-08-10.csv