压缩Spark中的序列文件?

时间:2014-04-02 14:41:47

标签: apache-spark

我正在尝试将RDD保存为压缩的Sequence文件。我可以保存非压缩文件:

counts.saveAsSequenceFile(output)

其中count是我的RDD(IntWritable,Text)。但是,我没有设法压缩输出。我尝试了几种配置并且始终有例外:

counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.hadoop.io.compress.SnappyCodec](classOf[org.apache.hadoop.io.compress.SnappyCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.SnappyCodec])

 counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.spark.io.SnappyCompressionCodec](classOf[org.apache.spark.io.SnappyCompressionCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.spark.io.SnappyCompressionCodec])

即使对于Gzip它也不起作用:

 counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])
<console>:21: error: type mismatch;
 found   : Class[org.apache.hadoop.io.compress.GzipCodec](classOf[org.apache.hadoop.io.compress.GzipCodec])
 required: Option[Class[_ <: org.apache.hadoop.io.compress.CompressionCodec]]
              counts.saveAsSequenceFile(output, classOf[org.apache.hadoop.io.compress.GzipCodec])

你能建议解决方案吗?另外,我没有发现如何指定压缩参数(即Snappy的压缩类型)

1 个答案:

答案 0 :(得分:7)

saveAsSequenceFile的签名是def saveAsSequenceFile(path: String, codec: Option[Class[_ <: CompressionCodec]] = None)。您需要Option[Class[_ <: CompressionCodec]]作为codec发送。如,

counts.saveAsSequenceFile(output, Some(classOf[org.apache.hadoop.io.compress.SnappyCodec]))

如果您仔细阅读type mismatch的错误信息,则应自行更正。