Hive Snappy未压缩长度必须更少

时间:2017-01-24 14:33:59

标签: hadoop hive snappy orc

使用表本身的连接查询下表会导致以下异常:

java.lang.IllegalArgumentException: Uncompressed length 222258 must be less than 131072
at org.iq80.snappy.SnappyInternalUtils.checkArgument(SnappyInternalUtils.java:116)
        at org.iq80.snappy.SnappyDecompressor.uncompress(SnappyDecompressor.java:72)
        at org.iq80.snappy.Snappy.uncompress(Snappy.java:43)
        at org.apache.hadoop.hive.ql.io.orc.SnappyCodec.decompress(SnappyCodec.java:71)
        at org.apache.hadoop.hive.ql.io.orc.InStream$CompressedStream.readHeader(InStream.java:214)
        at org.apache.hadoop.hive.ql.io.orc.InStream$CompressedStream.available(InStream.java:251)

有问题的查询如下:

select a.*
from events a
inner join
(
  SELECT asset_id, time, max(hive_insert_ts)
  FROM events
  GROUP BY asset_id, time
) b on a.time = b.time
and a.asset_id = b.asset_id
limit 10;

该表存储为ORC并使用SNAPPY压缩:

create table events(
    asset_id varchar(15),
    time timestamp,
    hive_insert_ts timestamp)
PARTITIONED BY (
    country varchar(4),
    site varchar(4),
    year int,
    month int)
STORED as ORC
TBLPROPERTIES (
'orc.compress'='SNAPPY',
'orc.create.index'='true',
'orc.bloom.filter.columns'='asset_id, time',
'orc.bloom.filter.fpp'='0.05',
'orc.stripe.size'='268435456',
'orc.row.index.stride'='10000');

我搜索了很多但找不到任何提示。你知道问题出在哪里吗?

非常感谢!

1 个答案:

答案 0 :(得分:1)

我找到了解决方案(以防有人遇到同样的问题)。 这是由错误配置造成的:

“orc.compress.size”tableproperty默认设置为

'orc.compress.size'='262144',即256k字节

但core-site.xml中的“io.file.buffer.size”设置为“131072”,则为128k字节。

streamreader想要读取131072个字节,这些字节在解压缩后不适合文件缓冲区。

解决方案是增加文件缓冲区大小或减小ORC表的压缩大小。

我希望有一天能帮助其他人。