在下面的pyspark char(13)
函数中添加下一行concat
是示例代码时,我们出错了
spark.sql("select CONCAT('Vinay',CHAR(13),'AGARWAL') from tempTable")
pyspark的concat功能不支持CHAR(13)
吗?
答案 0 :(得分:0)
我找到了问题和解决方案。它不使用char(30)而是使用\ n添加下一行字符。下面是解决方案。
spark.sql(“从tempTable中选择CONCAT('Vinay \ n','AGARWAL')”)