在HDP群集上安装Snappy

时间:2017-10-31 07:09:04

标签: hadoop compression hbase hortonworks-data-platform snappy

我有一个使用Hortonworks Data Platform 2.6.1构建的HBase集群。 现在我需要在HBase表上应用Snappy压缩。

在没有安装Snappy的情况下,我执行了压缩测试,并获得了成功输出。我用下面的命令。

hbase org.apache.hadoop.hbase.util.CompressionTest file:///tmp/test.txt snappy

hbase org.apache.hadoop.hbase.util.CompressionTest hdfs://hbase.primary.namenode:8020/tmp/test1.txt snappy

两个命令都得到了以下响应。

2017-10-30 11:25:18,454 INFO  [main] hfile.CacheConfig: CacheConfig:disabled
2017-10-30 11:25:18,671 INFO  [main] compress.CodecPool: Got brand-new compressor [.snappy]
2017-10-30 11:25:18,679 INFO  [main] compress.CodecPool: Got brand-new compressor [.snappy]
2017-10-30 11:25:21,560 INFO  [main] hfile.CacheConfig: CacheConfig:disabled
2017-10-30 11:25:22,366 INFO  [main] compress.CodecPool: Got brand-new decompressor [.snappy]
SUCCESS

我在路径/usr/hdp/2.6.1.0-129/hadoop/lib/native/中也看到了以下库。

libhadoop.a 
libhadooppipes.a 
libhadoop.so 
libhadoop.so.1.0.0 
libhadooputils.a 
libhdfs.a 
libsnappy.so 
libsnappy.so.1 
libsnappy.so.1.1.4

默认情况下HDP是否支持snappy压缩?

如果是这样,我可以在不安装Snappy的情况下压缩HBase表吗?

1 个答案:

答案 0 :(得分:2)

  

在没有安装Snappy的情况下,我执行了压缩测试并获得了成功输出。

Ambari在群集安装期间安装了它,所以这些命令正在运行

  

默认情况下HDP是否支持snappy压缩?

是的,HDP-UTILS存储库提供了snappy库。

  

我可以在不安装Snappy的情况下压缩HBase表吗?

Hbase提供其他压缩算法,是的