将RDD保存为pyspark中的序列文件

时间:2015-12-28 10:15:58

标签: python apache-spark pyspark sequencefile

我能够运行此脚本以文本格式保存文件,但是当我尝试运行saveAsSequenceFile时,它会出错。如果有人知道如何将RDD保存为序列文件,请告诉我这个过程。我尝试在“学习Spark”以及Spark官方文档中寻找解决方案。

成功运行

dataRDD = sc.textFile("/user/cloudera/sqoop_import/departments")
dataRDD.saveAsTextFile("/user/cloudera/pyspark/departments")

这失败

dataRDD = sc.textFile("/user/cloudera/sqoop_import/departments")
dataRDD.saveAsSequenceFile("/user/cloudera/pyspark/departmentsSeq")
  

错误:调用时发生错误   Z:org.apache.spark.api.python.PythonRDD.saveAsSequenceFile。 :   org.apache.spark.SparkException:java.lang.String类型的RDD元素   不能使用

以下是数据:

2,Fitness
3,Footwear
4,Apparel
5,Golf
6,Outdoors
7,Fan Shop
8,TESTING
8000,TESTING

2 个答案:

答案 0 :(得分:6)

序列文件用于存储键值对,因此您不能简单地存储RDD[String]。根据你的数据,我猜你正在寻找这样的东西:

rdd = sc.parallelize([
    "2,Fitness", "3,Footwear", "4,Apparel"
])
rdd.map(lambda x: tuple(x.split(",", 1))).saveAsSequenceFile("testSeq")

如果您想保留整个字符串,只需使用None键:

rdd.map(lambda x: (None, x)).saveAsSequenceFile("testSeqNone")

答案 1 :(得分:0)

要写入Sequence文件,您需要Hadoop API格式的数据。

字符串作为文本
Int as IntWritable

在Python中:

data = [(1, ""),(1, "a"),(2, "bcdf")]
sc.parallelize(data).saveAsNewAPIHadoopFile(path,"org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat","org.apache.hadoop.io.IntWritable","org.apache.hadoop.io.Text")