我在Spark中使用combyyByKey怎么了

时间:2019-06-26 03:11:47

标签: scala apache-spark

我是新来的火花。我在这里提到我的代码,我不确定它是怎么回事。

val file   =  context.textFile("testing2.txt")
val mapped =  file.map(x => (x.length,x))
val com    = mapped.combineByKey(
      (v : String) => (v,1),
      (acc : (String,Int),v) => (acc._1+v,acc._2+1),
      (acc1 : (String,Int), acc2 : (String,Int)) => (acc1._1+acc2._1)
    )

0 个答案:

没有答案