从Spark SQL中的字符串日期时间获取年份

时间:2019-04-29 15:58:39

标签: sql apache-spark apache-spark-sql

我试图通过使用文档中的 year()函数获得Spark SQL的年份。

名为dt的日期时间字符串的格式类似于dd/MM/yyyy

我试图进行如下查询以获取2018年和2019年的所有记录:

SELECT * FROM T1
WHERE year(dt) == 2018 AND year(dt=='2019');

但是似乎出了点问题。有什么建议吗?

1 个答案:

答案 0 :(得分:0)

我相信您要问的是不可能的事情。您正在告诉程序在2018年和2019年都可以。请尝试以下操作:

add/add

希望对您有所帮助 BR