Snappy中的Hive Compression Orc

时间:2014-12-09 07:28:47

标签: amazon-web-services compression hive snappy

使用:亚马逊Aws Hive(0.13)
尝试:使用snappy压缩输出orc文件。

create external table output{
col1 string}
partitioned by (col2 string)
stored as orc
location 's3://mybucket'
tblproperties("orc.compress"="SNAPPY");

set hive.exec.dynamic.partition=true;
set hive.exec.dynamic.partition.mode=nonstrict;
set hive.exec.compress.output = true;    
set mapred.output.compression.type = BLOCK;  
set mapred.output.compression.codec = org.apache.hadoop.io.compress.SnappyCodec;

insert into table output
partition(col2)
select col1,col2 from input;

问题是,当我查看mybucket目录中的输出时,它没有SNAPPY扩展名。但是,它是一个二进制文件。我错过了哪些设置将这些orc文件转换为压缩并使用SNAPPY扩展名输出?

2 个答案:

答案 0 :(得分:3)

此外,您可以使用hive --orcfiledump /apps/hive/warehouse/orc/000000_0查看文件的详细信息。输出结果如下:

Reading ORC rows from /apps/hive/warehouse/orc/000000_0 with {include: null, offset: 0, length: 9223372036854775807}
Rows: 6
Compression: ZLIB
Compression size: 262144
Type: struct<_col0:string,_col1:int>

Stripe Statistics:
  Stripe 1:
    Column 0: count: 6
    Column 1: count: 6 min: Beth max: Owen sum: 29
    Column 2: count: 6 min: 1 max: 6 sum: 21

File Statistics:
  Column 0: count: 6
  Column 1: count: 6 min: Beth max: Owen sum: 29
  Column 2: count: 6 min: 1 max: 6 sum: 21
....

答案 1 :(得分:2)

OrcFiles是采用特殊格式的二进制文件。指定orc.compress = SNAPPY时,使用Snappy压缩文件的内容。 Orc是一种半柱状文件格式。

请查看this documentation,了解有关数据布局方式的更多信息。

  

使用编解码器压缩流,该编解码器被指定为该表中所有流的表属性为了优化内存使用,压缩在生成每个块时以递增方式完成。可以跳过压缩块而无需首先解压缩以进行扫描。流中的位置由块起始位置和块中的偏移量表示。

简而言之,您的文件是使用Snappy编解码器压缩的,您无法分辨它们是因为文件中的块是实际压缩的。