我一直试图让org.apache.spark.sql.explode
的动态版本没有运气:我有一个名为event_date
的日期列的数据集和另一个名为no_of_days_gap
的列。我想使用no_of_days_gap
使用explode
函数创建行的克隆。我的第一次尝试是使用它:
myDataset.withColumn("clone", explode(array((0 until col("no_of_days_gap")).map(lit): _*)))
但是,col("no_of_days_gap")
的类型为Column
,预计会Int
。我也尝试了其他各种方法。那我怎么能让这个工作?
P.S。:我设法使用map
函数,然后调用flatMap
来获得替代解决方案,但是,我真的很有兴趣了解如何使withColumn
方法正常工作。
答案 0 :(得分:0)
你必须使用udf:
val range = udf((i: Integer) => (0 until i).toSeq)
df
.withColumn("clone", range($"no_of_days_gap")) // Add range
.withColumn("clone", explode($"clone")) // Explode
答案 1 :(得分:0)
以下情况如何?
scala> val diddy = Seq(
| ("2017/03/07", 4),
| ("2016/12/09", 2)).toDF("event_date", "no_of_days_gap")
diddy: org.apache.spark.sql.DataFrame = [event_date: string, no_of_days_gap: int]
scala> diddy.flatMap(r => Seq.fill(r.getInt(1))(r.getString(0))).show
+----------+
| value|
+----------+
|2017/03/07|
|2017/03/07|
|2017/03/07|
|2017/03/07|
|2016/12/09|
|2016/12/09|
+----------+
// use explode instead
scala> diddy.explode("no_of_days_gap", "events") { n: Int => 0 until n }.show
warning: there was one deprecation warning; re-run with -deprecation for details
+----------+--------------+------+
|event_date|no_of_days_gap|events|
+----------+--------------+------+
|2017/03/07| 4| 0|
|2017/03/07| 4| 1|
|2017/03/07| 4| 2|
|2017/03/07| 4| 3|
|2016/12/09| 2| 0|
|2016/12/09| 2| 1|
+----------+--------------+------+
如果你坚持withColumn
,那么......是......它! 扣上!
diddy
.withColumn("concat", concat($"event_date", lit(",")))
.withColumn("repeat", expr("repeat(concat, no_of_days_gap)"))
.withColumn("split", split($"repeat", ","))
.withColumn("explode", explode($"split"))