spark会支持所有sql语法

时间:2016-03-03 07:55:41

标签: sql apache-spark pyspark

我在我的pyspark脚本中使用ROW_NUMBER() OVER(PARTITION BY COL1 ORDER BY COL2),但运行错误:

  

java.lang.RuntimeException:[1.26]失败:``union''期待但是`('   发现SELECT *,MAX(cctry)OVER(由ei分区)maxcc来自tmp1

是否支持PARTITION关键字?

0 个答案:

没有答案