我有一个Scala spark DataFrame:
df.select($"row_id", $"array_of_data").show
+----------+--------------------+
| row_id | array_of_data |
+----------+--------------------+
| 0 | [123, ABC, G12] |
| 1 | [100, 410] |
| 2 | [500, 300, ...] |
我想爆炸这些数组,以便每个元素都在不同的行中,但我还想标记哪一行对应于数组的第一个元素:
+----------+--------------------+----------+----------+
| row_id | array_of_data | exploded | is_first |
+----------+--------------------+----------+----------+
| 0 | [123, ABC, G12] | 123 | Yes |
| 0 | [123, ABC, G12] | ABC | No |
| 0 | [123, ABC, G12] | G12 | No |
为实现这一目标,我使用explode function,并希望第一行对应第一个数据元素:
var exploded_df = df.withColumn("exploded", explode($"array_of_data"))
val window = Window.partitionBy("row_id").orderBy("row_id")
// Create an internal rank variable to figure out the first element
exploded_df = exploded_df.withColumn("_rank", row_number().over(window))
exploded_df = exploded_df.withColumn("is_first",
when(($"_rank" === 1), "Yes").otherwise("No")
)
这似乎适用于我的目的并产生所需的输出,但我相信这将始终有效吗?我无法在爆炸文档中找到承诺此行为的任何地方,并且信任Spark数据帧中的行顺序似乎是不明智的。
我能想到的唯一其他解决方案是为array_of_data
中的每个元素创建一个新列,然后在exploded
等于第一列中的值时进行匹配,但我不会# 39; t保证数组中不会出现重复值。
答案 0 :(得分:4)
您可以使用posexplode功能来实现此目的。
正如api文件所解释的那样
为每个元素在给定数组或地图列中的位置创建一个新行。
您可以使用select
功能,以便位置和爆炸列形成单独的列
import org.apache.spark.sql.functions._
df.select($"row_id", posexplode($"array_of_data")).show(false)
应该给你
+------+---------------+---+---+
|row_id|array_of_data |pos|col|
+------+---------------+---+---+
|0 |[123, ABC, G12]|0 |123|
|0 |[123, ABC, G12]|1 |ABC|
|0 |[123, ABC, G12]|2 |G12|
+------+---------------+---+---+