在pySpark中串联换行符char(13)

时间:2018-12-14 08:59:19

标签: pyspark apache-spark-sql pyspark-sql

在下面的pyspark char(13)函数中添加下一行concat是示例代码时,我们出错了

spark.sql("select CONCAT('Vinay',CHAR(13),'AGARWAL') from tempTable")

pyspark的concat功能不支持CHAR(13)吗?

1 个答案:

答案 0 :(得分:0)

我找到了问题和解决方案。它不使用char(30)而是使用\ n添加下一行字符。下面是解决方案。

spark.sql(“从tempTable中选择CONCAT('Vinay \ n','AGARWAL')”)