将一些查询从Spark 1.5迁移到Spark 2.0
查询如下:
SELECT
users.age AS users_age,
NULL
AS users_running_total_on_null
FROM users
GROUP BY users.age
ORDER BY users_age
LIMIT 1
首先,我知道在Spark中,null检查在group by中使用时不起作用,并且在值上调用LENGTH()
并且null检查正常工作。
运行上述查询,我收到以下错误:
SQL Error: java.lang.IllegalArgumentException: Unrecognized type name: null\"
任何想法是什么问题?