获取Spark SQL date_format和weekofyear之间的日期周不同

时间:2018-01-15 14:58:33

标签: apache-spark apache-spark-sql

非常简单:

SELECT  date_format("2018-01-14", "w"), weekofyear("2018-01-14")

给出:

3, 2

他们都应该返回2,我该如何正确配置语言环境?

(环境user.country = fr user.lang = FR)

我可以看到in Spark weekofyear code source本周从星期一开始。

1 个答案:

答案 0 :(得分:2)

从版本2.2.1开始(但也在当前的array(t(df), c(2, 2, 2)) #, , 1 # # [,1] [,2] #[1,] 1 3 #[2,] 2 4 # #, , 2 # # [,1] [,2] #[1,] 5 7 #[2,] 6 8 分支上),DateFormatClass中定义了masterDateTimeUtils#newDateFormat,又使用了have a look at their bug repository,但不幸的是使用了https://eslint.org/docs/user-guide/configuring#using-a-configuration-file硬编码的date_format,让您无法配置其行为。

Locale.US

所以看起来这两个人必然会有不同的行为。也许您可能想要ESLint support Visual studio 2017并可能为此提交一张票。