pyspark concat具有合并的多个列不起作用

时间:2018-08-20 08:51:41

标签: pyspark apache-spark-sql

下面的代码抛出“列不可迭代”错误。

代码:

df = spark.createDataFrame([('abcd', '123')], ['s', 'd'])
df.select(concat_ws('', coalesce(df.s, "sometext"), coalesce(df.d, "sometext")).alias('sd')).show()

1 个答案:

答案 0 :(得分:1)

concat_ws期望分隔符为第一个参数,请参见here。因此,如果您不想使用分隔符,则可以执行以下操作:

df.select(concat_ws('',df.s, df.d).alias('sd')).show()

希望这会有所帮助!