标签: sql apache-spark pyspark
我在我的pyspark脚本中使用ROW_NUMBER() OVER(PARTITION BY COL1 ORDER BY COL2),但运行错误:
ROW_NUMBER() OVER(PARTITION BY COL1 ORDER BY COL2)
java.lang.RuntimeException:[1.26]失败:``union''期待但是`(' 发现SELECT *,MAX(cctry)OVER(由ei分区)maxcc来自tmp1
是否支持PARTITION关键字?