如何在Spark Scala中使用mapPartitions?

时间:2016-11-30 15:25:22

标签: scala apache-spark

我有DocsRDD:RDD [String,String]

val DocsRDD = sc.wholeTextFiles("myDirectory/*" , 2)

DocsRDD:

Doc1.txt , bla bla bla .....\n bla bla bla \n bla ... bla
Doc2.txt , bla bla bla .....bla \n bla bla \n bla ... bla
Doc3.txt , bla bla bla .....\n bla bla bla \n bla ... bla
Doc4.txt , bla bla \n  .....\n bla bla bla bla \n ... bla

有没有一种高效,优雅的方法从mapPartitions中提取n-gram? 到目前为止,我已经尝试了所有的东西,我已经阅读了至少5次关于mapPartitions的一切,但我仍然无法理解如何使用它!似乎太难以操纵了。 总之,我想:

val NGramsRDD = DocsRDD.map(x => (x._1 , x._2.sliding(n) ) )

但有效地使用mapPartitions。 我对mapPartitions的基本误解是:

OneDocRDD:RDD [String]

 val OneDocRDD = sc.textFile("myDoc1.txt" , 2)
                   .mapPartitions(s1 : Iterator[String] => s2 : Iterator[String])

我无法理解这一点!从s1开始是Iterator [String]? s1是sc.textfile之后的String。

好吧,我的第二个问题是:在这种情况下,mapPartitions会改进我对地图的克服吗?

最后但并非最不重要: 可以f()是:

     f(Iterator[String]) : Iterator[Something else?]

1 个答案:

答案 0 :(得分:9)

我不确定.mapPartitions会有帮助(至少没有给出示例),但使用.mapPartitions看起来像:

val OneDocRDD = sc.textFile("myDoc1.txt", 2)
  .mapPartitions(iter => {
    // here you can initialize objects that you would need 
    // that you want to create once by worker and not for each x in the map. 
    iter.map(x => (x._1 , x._2.sliding(n)))
  })

通常,您希望使用.mapPartitions来创建/初始化您不想要的对象(例如:太大)或无法序列化到工作节点。如果没有.mapPartitions,您需要在.map中创建它们,但由于将为每个x创建对象,因此效率不高。