在dataframe spark中使用explode函数

时间:2018-05-18 07:14:00

标签: scala apache-spark dataframe apache-spark-sql

df2.withColumn("cid", regexp_replace(df2("cid"), "\"", ""))

 trentyid | cid
----------+----------
 a        | 1, 5, 16
 b        | 76, 34

trendyidcid都是字符串列。

df3.select($"trentyid".as("trentyid"), explode(split($"cid", ",")).as("cid1"))

输出:

 trentyid | cid1
----------+----------
 a        |
 b        |

这最后一行似乎没有按预期工作,因为第二列是空的。

原因是什么?

0 个答案:

没有答案