使用:亚马逊Aws Hive(0.13)
尝试:使用snappy压缩输出orc文件。
create external table output{
col1 string}
partitioned by (col2 string)
stored as orc
location 's3://mybucket'
tblproperties("orc.compress"="SNAPPY");
set hive.exec.dynamic.partition=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.exec.compress.output = true;
set mapred.output.compression.type = BLOCK;
set mapred.output.compression.codec = org.apache.hadoop.io.compress.SnappyCodec;
insert into table output
partition(col2)
select col1,col2 from input;
问题是,当我查看mybucket目录中的输出时,它没有SNAPPY扩展名。但是,它是一个二进制文件。我错过了哪些设置将这些orc文件转换为压缩并使用SNAPPY扩展名输出?
答案 0 :(得分:3)
此外,您可以使用hive --orcfiledump /apps/hive/warehouse/orc/000000_0
查看文件的详细信息。输出结果如下:
Reading ORC rows from /apps/hive/warehouse/orc/000000_0 with {include: null, offset: 0, length: 9223372036854775807}
Rows: 6
Compression: ZLIB
Compression size: 262144
Type: struct<_col0:string,_col1:int>
Stripe Statistics:
Stripe 1:
Column 0: count: 6
Column 1: count: 6 min: Beth max: Owen sum: 29
Column 2: count: 6 min: 1 max: 6 sum: 21
File Statistics:
Column 0: count: 6
Column 1: count: 6 min: Beth max: Owen sum: 29
Column 2: count: 6 min: 1 max: 6 sum: 21
....
答案 1 :(得分:2)
OrcFiles是采用特殊格式的二进制文件。指定orc.compress = SNAPPY
时,使用Snappy压缩文件的内容。 Orc是一种半柱状文件格式。
请查看this documentation,了解有关数据布局方式的更多信息。
使用编解码器压缩流,该编解码器被指定为该表中所有流的表属性为了优化内存使用,压缩在生成每个块时以递增方式完成。可以跳过压缩块而无需首先解压缩以进行扫描。流中的位置由块起始位置和块中的偏移量表示。
简而言之,您的文件是使用Snappy编解码器压缩的,您无法分辨它们是因为文件中的块是实际压缩的。