我试图通过使用文档中的 year()函数获得Spark SQL的年份。
名为dt
的日期时间字符串的格式类似于dd/MM/yyyy
。
我试图进行如下查询以获取2018年和2019年的所有记录:
SELECT * FROM T1
WHERE year(dt) == 2018 AND year(dt=='2019');
但是似乎出了点问题。有什么建议吗?
答案 0 :(得分:0)
我相信您要问的是不可能的事情。您正在告诉程序在2018年和2019年都可以。请尝试以下操作:
add/add
希望对您有所帮助 BR