在PySpark 2.0中读取序列文件

时间:2017-01-09 19:16:07

标签: apache-spark pyspark sequencefile

我有一个序列文件,其值看起来像

(string_value, json_value)

我不关心字符串值。

在Scala中我可以通过

读取文件
val reader = sc.sequenceFile[String, String]("/path...")
val data = reader.map{case (x, y) => (y.toString)}
val jsondata = spark.read.json(data)

我很难将其转换为PySpark。我尝试过使用

reader= sc.sequenceFile("/path","org.apache.hadoop.io.Text", "org.apache.hadoop.io.Text")
data = reader.map(lambda x,y: str(y))
jsondata = spark.read.json(data)

错误很神秘,但如果有帮助我可以提供。我的问题是,在pySpark2中读取这些序列文件的正确语法是什么?

我认为我没有正确地将数组元素转换为字符串。如果我做一些简单的事情,我会得到类似的错误,如

m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: y.toString).collect()

m = sc.parallelize([(1, 2), (3, 4)])
m.map(lambda x,y: str(y)).collect()

谢谢!

2 个答案:

答案 0 :(得分:5)

您的代码的基本问题是您使用的功能。传递给map的函数应该只接受一个参数。使用:

reader.map(lambda x: x[1])

或只是:

reader.values()

只要keyClassvalueClass匹配数据,这应该就是您需要的所有内容,而且不需要其他类型转换(这由sequenceFile内部处理)。用Scala写道:

Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.1.0
      /_/

Using Scala version 2.11.8 (OpenJDK 64-Bit Server VM, Java 1.8.0_111)
Type in expressions to have them evaluated.
Type :help for more information.
scala> :paste
// Entering paste mode (ctrl-D to finish)

sc
  .parallelize(Seq(
    ("foo", """{"foo": 1}"""), ("bar", """{"bar": 2}""")))
  .saveAsSequenceFile("example")

// Exiting paste mode, now interpreting.

阅读Python:

Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.1.0
      /_/

Using Python version 3.5.1 (default, Dec  7 2015 11:16:01)
SparkSession available as 'spark'.
In [1]: Text = "org.apache.hadoop.io.Text"

In [2]: (sc
   ...:     .sequenceFile("example", Text, Text)
   ...:     .values()  
   ...:     .first())
Out[2]: '{"bar": 2}'

注意

Legacy Python版本支持tuple参数解包:

reader.map(lambda (_, v): v)

不要使用它以获取应向前兼容的代码。

答案 1 :(得分:0)

对于Spark 2.4.x,您必须从 SparkSession (火花对象)获取 sparkContext 对象。该文件具有 sequenceFile API来读取序列文件。

spark.
sparkContext.
sequenceFile('/user/sequencesample').
toDF().show()

以上作品的魅力。

用于写入( 镶木地板 到sequenceFile):

spark.
read.
format('parquet').
load('/user/parquet_sample').
select('id',F.concat_ws('|','id','name')).
rdd.map(lambda rec:(rec[0],rec[1])).
saveAsSequenceFile('/user/output')

首先将DF转换为RDD,然后创建一个(Key,Value)对的元组,然后另存为SequenceFile。

我希望这个答案对您有帮助。