如何使用列值进行爆炸?

时间:2017-03-06 21:46:36

标签: apache-spark apache-spark-sql

我一直试图让org.apache.spark.sql.explode的动态版本没有运气:我有一个名为event_date的日期列的数据集和另一个名为no_of_days_gap的列。我想使用no_of_days_gap使用explode函数创建行的克隆。我的第一次尝试是使用它:

myDataset.withColumn("clone", explode(array((0 until col("no_of_days_gap")).map(lit): _*)))

但是,col("no_of_days_gap")的类型为Column,预计会Int。我也尝试了其他各种方法。那我怎么能让这个工作?

P.S。:我设法使用map函数,然后调用flatMap来获得替代解决方案,但是,我真的很有兴趣了解如何使withColumn方法正常工作。

2 个答案:

答案 0 :(得分:0)

你必须使用udf:

val range = udf((i: Integer) => (0 until i).toSeq)

df
  .withColumn("clone", range($"no_of_days_gap"))  // Add range
  .withColumn("clone", explode($"clone"))  // Explode

答案 1 :(得分:0)

以下情况如何?

scala> val diddy = Seq(
     |   ("2017/03/07", 4),
     |   ("2016/12/09", 2)).toDF("event_date", "no_of_days_gap")
diddy: org.apache.spark.sql.DataFrame = [event_date: string, no_of_days_gap: int]

scala> diddy.flatMap(r => Seq.fill(r.getInt(1))(r.getString(0))).show
+----------+
|     value|
+----------+
|2017/03/07|
|2017/03/07|
|2017/03/07|
|2017/03/07|
|2016/12/09|
|2016/12/09|
+----------+

// use explode instead

scala> diddy.explode("no_of_days_gap", "events") { n: Int => 0 until n }.show
warning: there was one deprecation warning; re-run with -deprecation for details
+----------+--------------+------+
|event_date|no_of_days_gap|events|
+----------+--------------+------+
|2017/03/07|             4|     0|
|2017/03/07|             4|     1|
|2017/03/07|             4|     2|
|2017/03/07|             4|     3|
|2016/12/09|             2|     0|
|2016/12/09|             2|     1|
+----------+--------------+------+

如果你坚持withColumn,那么......是......它! 扣上!

diddy
  .withColumn("concat", concat($"event_date", lit(",")))
  .withColumn("repeat", expr("repeat(concat, no_of_days_gap)"))
  .withColumn("split", split($"repeat", ","))
  .withColumn("explode", explode($"split"))